Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. KING123KING123 dumm leckt gut

    KING123KING123
    Registriert seit:
    8. Februar 2007
    Beiträge:
    21.515
    Ort:
    Thüringen
    ca. 100 Stück...

    https://www.chiphell.com/thread-2601877-1-1.html


    oder hier
    https://wccftech.com/only-5-out-of-...rofile-intel-board-partners-stability-issues/
     
  2. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    100 Stück und drei Modelle...das ist nicht viel, aber auch nicht wenig. Für einen Tester freilich trotzdem ein echtes Mammut-Projekt! :eek:

    Das ist echt übel. Jetzt müsste man eigentlich in den Kaufberatungsthread gehen und allen denen zu Intel geraten wurde (oder besser: denen nicht abgeraten werden konnte :D) die schlechte Nachricht überbringen...:KO:
     
  3. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.316
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Ich les da raus, dass 100 13900K im Laufe der Zeit durch 14900K ersetzt wurden:

     
  4. KING123KING123 dumm leckt gut

    KING123KING123
    Registriert seit:
    8. Februar 2007
    Beiträge:
    21.515
    Ort:
    Thüringen
    So wie ich das lese nutz der die Beruflich, also der hat die nicht nur zum Testen gekauft.
     
  5. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ja, die Betonung lag er auf "einem", das war ja trotzdem viel Aufwand. ^^
     
  6. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.388
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    MSI MPG 321URXDE
    Schwer zu sagen, ob 100 Stück reichen, um daraus wirklich Schlüsse ziehen zu können. Wenn er die immer in größeren Stückzahlen kauft, könnten die natürlich aus einer Charge sein und damit das Ergebnis verfälschen. Andererseits hätte eine Charge mit so vielen fehlerhaften CPUs nie das Werk verlassen dürfen. Dass mal eine oder zwei durchrutschen können, geschenkt, aber Dutzende oder gar noch mehr? Nope. Egal, woran's liegt, Intel hat irgendeinen Mist fabriziert.

    XMP fällt übrigens aus Fehlerursache aus, lt. eigener Aussage auf Seite 2 des Threads, ist alles auf DDR5-Standard. Er hatte sogar einen 14900K, der runtergetaktet auf 5,7 GHz nicht stabil lief.
     
  7. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ja, in ähnliche Richtung gingen ja meine Überlegungen. Es ist fast egal wie man es dreht oder wendet, das sieht so oder so scheiße aus für Intel und es gibt für keines der denkbaren Szenarien eine Erklärung die es irgendwie abschwächen könnte.

    Ich wette in Intels Marketing Abteilung schieben sie gerade Panik...und / oder Nachtschichten. :ugly:


    PS: Und ich weiß, Eigenlob stinkt, aber ich stand damals ja auch vor der Wahl: Intel 13th Gen oder AMD AM5. Und es gab einige gute Gründe, wie Preis und durchaus auch Leistung, die für Intel sprachen. Auch ich gehöre zu denen die sagen, dass ich mit jedem großen Aufrüsten eh das Board wechsele und der alte Intel Sockel somit egal wäre. Und ich war beeindruckt - weil ich es jahrelang nicht verfolgt hatte - wie Intel trotz technischer Unterlegenheit mit den E- und P-Cores durchaus innovativ geblieben ist und teilweise mehr als nur mithalten konnte. Und es war halt, vermeintlich, die erprobtere und damit ausgereiftere Technologie im Gegensatz zum brandneuen AM5 (und der hatte ja seine eigene kleine Krise, wenn auch gut überstanden ^^).

    Aber am Ende fiel die Entscheidung halt doch leicht, als ich diesen Stromverbrauch sah. Das kam mir einfach nur krank vor, dass eine CPU so viel verbrauchen soll wie eine High-End-Grafikkkarte. Das war bei mir der entscheidende Faktor und mein Instinkt war der richtige. :user:
     
    Zuletzt bearbeitet: 2. Mai 2024
  8. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.388
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    MSI MPG 321URXDE
    Na ja, E-Cores gab's schon Jahre vorher in ARM-SOCs diverser Hersteller. Intel hat nur die Idee für x86 überkommen -- notgedrungen. Spätestens seit Zen 3 sehen sie gegen AMD kein Land mehr. Zen 4 und erst recht 5 konkurrieren sogar durchaus mit der Effizienz von Apples Architektur und Intel sieht bestenfalls noch deren Rücklichter. Wenn nun ARM unter Windows wirklich durchstarten kann, sehe ich für Intel wirklich größere Probleme. AMD hatte ein enorm starkes Q1, auf dem Niveau von Q4. Im Vergleich zum Vorjahresquartal hat sich der Gewinn verdoppelt. Intel dagegen ist in Consumer-Segment sogar rückläufig. In Sachen Data Center hat AMD auch massiv in den letzten Jahren aufgeholt.

    Dass AMD in Q1 so gut dasteht, liegt am starken Mobilmarkt. Meteor Lake ist bei den OEMs nicht sonderlich beliebt. Kaum besser als Raptor Lake und offenbar haben die OEMs auch Probleme mit der Abstimmung der BIOS-Profile, weil die Dinger offenbar genauso stark streuen und Probleme machen, wie die großen CPUs. So eine Phase im Mobilbereich hatte Intel schon mal. Apple wurden CPUs und GPUs versprochen, die in der Form nie geliefert wurden, weil sie vier Jahre gebraucht haben, um die 10 nm Node halbwegs hinzukriegen. Wäre AMD damals schon auf dem heutigen Niveau gewesen, sähe der Markt heute völlig anders aus.

    Apple zu verlieren war verschmerzbar, aber wenn nun AMD, Apple, Qualcomm und potenziell später auch andere Hersteller deutlich besser aufgestellt sind, wird Intel in größere Bedrängnis kommen. Damals konnten die OEMs nicht aus, aber das sieht nun anders aus und die anderen Geschäftssparten mit AI, Data Center und Netzwerk sind deutlich kleiner, als das normale Kunden-Geschäft.

    Die aktuellen Zahlen von MindFactory sind z.B. auch lustig: in KW 16 wurden dort mehr als dreimal so viele AM4-CPUs verkauft (1.900), als alle Intel-CPUs für diverse Sockel zusammengenommen (600). AM5 ist noch mal deutlich stärker (2.400). Das ist natürlich kein Indikator für den Gesamtmarkt, aber so krass war es noch nie und das war ja sogar noch, bevor das ganze Raptor Lake- und Baseline-Thema so richtig losging.

    Ich hatte zwar durchaus auch überlegt, ob Intel für mich eine bessere Wahl wäre. Meine spezielle Anforderung ist ja die beste CPU für MSFS, aber nach ein paar Benchmarks war schnell klar, dass selbst der 14900K in MSFS kein Land gegen einen 5800X3D sieht (die üblichen Benchmarks bei Toms Hardware etc. kann man vergessen, die nutzen weder Custom-Szenerien noch komplexe Addon-Flugzeuge usw.). Der 7800X3D spielt in einer komplett eigenen Liga. Nur der 7950X3D kann theoretisch besser sein, dazu muss man aber mit Process Lasso rumspielen und es bringt auch nur was, wenn man recht viel im Hintergrund laufen hat. Ist mir das Geschiss nicht wert. Abgesehen davon, ist der 7800X3D auch ansonsten die deutlich bessere Wahl. Abgesehen von Unfällen wie Starfield, ist er immer min. genauso schnell und das bei einem Drittel bis Viertel des Stromverbrauchs.

    Die PCGH hat aktuell einen Guide, wie man einen 7800X3D mit einem NH-D15s passiv nutzen kann. Man verliert zwar so viel Leistung, dass er etwa bei einem 5800X3D rauskommt, aber das ist durchaus beeindruckend. Wobei man natürlich auch sagen kann, dass passiv keinen Sinn ergibt. Den NF-A15 kann man auch einfach unhörbar leise bekommen und es dürfte keine Einbußen mehr geben, insbesondere mit dem Offset-Kit. Eine fixe Drehzahl reicht locker. Ich fahr ja mit einem NH-D15s und zwei NF-A12x25 auch so bzw. funktioniert das auch prima mit einem Thermalright Phantom Spirit, den ich aktuell teste. (Spoiler: ist tatsächlich ein, zwei Grad kühler als der NH-D15s inkl. Offset-Mount mit dem gleichen Lüfter-Setup -- Thermalright macht in letzter Zeit wirklich viel richtig)

    Sofern Arrow Lake und dessen Nachfolger nicht endlich signifikante Verbesserungen bringen, bleibe ich klar bei AMD.
     
    GODzilla gefällt das.
  9. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.391
    Was noch schlimmer ist: Intel hat AI komplett verschlafen und praktisch keine Stakes in dem Markt. Dazu anhaltende Fertigungsprobleme in ihren sauteuren Foundrys. Sieht nicht gut aus.
     
  10. Lemu54 Notebook-Kaufberatungsking

    Lemu54
    Registriert seit:
    2. Februar 2011
    Beiträge:
    3.525
    Ort:
    Internet, duh.
    Mein RIG:
    CPU:
    Ryzen 7 5700X @stock mit Alpenföhn Ben Nevis
    Grafikkarte:
    PowerColor RX Vega 56 Red Dragon @UV
    Motherboard:
    ASUS Prime B350M-K
    RAM:
    Crucial Ballistix Elite 2x8GB DDR4-2666 @lightOC
    Laufwerke:
    WD Black M.2 500 GB
    Crucial MX500 2 TB
    ASUS BC-12D2HT
    Gehäuse:
    BitFenix Prodigy M schwarz
    Maus und Tastatur:
    Sharkoon Shark Force schwarz
    Logitech G910 Orion Spark
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    LG 27UD58P-B
    GNA regelt. :teach:
     
  11. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.753
    Ort:
    D
    Ich finde übrigens, Prozessoren wie die x3D gehen in eine interessante Richtung: Spezialisierung statt CPUs für alles.

    Allerdings zielen sie auch preislich eher aufs Higher End -- und sind neben dem 3D Cache dafür evtl. auch zu dick ausgestattet, um sie günstiger zu machen. Extrem viel weniger Anwendungsleistung als in etwa vergleichbare Modelle ohne Cache haben sie ja nicht. Ob das möglich ist, sei mal dahingestellt. Aber man stelle sich spezialisierte Linien vor, die explizit für Gaming, professionelle Anwendungen oder Allround gemacht sind. Mit den kleineren x3Ds zuletzt (5600x3D, 5700x3D) hatte AMD das x3D-Portfolio immerhin bereits preislich etwas diversifiziert.

    Als ich noch jung und naiv war, dachte ich ja, Intels Celeron A sei ein erster Schritt in diese Richtung. Denn das waren CPUs, die für einen kleineren Preis bei gleichem Takt fast die gleiche Gaming-Leistung wie die teureren Pentium IIs hatten. Der deutliche kleinere Cache wirkte sich im Gaming kaum aus, selbst wenn er immerhin höher getaktet war als beim Pentium II -- nämlich mit vollem CPU-Takt. Wie sich rausstellte, war dem natürlich nicht so. Und Intel hatte den "Fehler" schnell korrigiert. Die Celeron-Reihe kennt man rein vom Namen zwar heute noch. Allerdings wurde sie zunehmend nur noch für Prozessoren verwendet, die für einfachste Aufgaben gedacht waren (Officerechner). Und heute weder genug Spiele- noch genug Anwendungsleistung haben, um für andere Einsatzgebiete als Office interessant zu sein.
     
    Zuletzt bearbeitet: 3. Mai 2024
  12. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.655
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Ich weiß übrigens nicht wofür man die E-Cores überhaupt im Desktop braucht. Nutzt mein PC seine Leistung nicht, dann taktet er eh weit runter.

    Und ansonsten Brauch ich die Leistung. Ja auch beim surfen. Ist schon interessant wie schnell mein X3d Seiten aufbaut und wie langsam da mein alter i5 m ist.

    Und was die Beliebtheit von Intel angeht. Man hat sich wohl auch viel versaut in dem man alte Prozessoren und einem neuem Namen vermarktet hat.
     
  13. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.391
    Ich bin da kein Experte, aber soweit ich weiß ist das nicht wirklich möglich, weil der Löwenanteil an Software CPU-seitig so generisch geschrieben wird, dass man da schlecht speziell darauf optimieren kann. Deshalb braucht man auch nicht für jede/viele Anwendung Treiberoptimierungen wie bei einer Grafikkarte. Der 3D-Cache bringt ja auch "nur" so viel, weil viele Spiele-Engines sehr cachelastig arbeiten.

    Ansonsten macht Apple ja auch einiges an Spezialisierung, aber deren CPUs sind auch entsprechend riesig und teuer. Eben weil so viel in Silizium gegossen wurde.

    Intel nutzt die eCores eh nicht so, wie es bei ARM-Efficiency-Cores passiert. In ersterer Linie sind die zum Stromsparen unter Last da, bei sehr hoher Anwendungsleistung.

    Surfen braucht vor allem IPC. Ein 10 GHz-Singlecore wäre da ideal :ugly:
     
    Zuletzt bearbeitet: 3. Mai 2024
    Svenc gefällt das.
  14. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.316
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Der User braucht die E-Cores nicht. Aber Intel brauchte die E-Cores dringend um 1. in Sachen Kernanzahl zu AMD aufzuschließen und 2. selbst wenn sie 16 P-Cores auf ein Die schweißen könnten will niemand wissen, wie viel Leistung eine solche CPU ziehen würde.
     
  15. Lemu54 Notebook-Kaufberatungsking

    Lemu54
    Registriert seit:
    2. Februar 2011
    Beiträge:
    3.525
    Ort:
    Internet, duh.
    Mein RIG:
    CPU:
    Ryzen 7 5700X @stock mit Alpenföhn Ben Nevis
    Grafikkarte:
    PowerColor RX Vega 56 Red Dragon @UV
    Motherboard:
    ASUS Prime B350M-K
    RAM:
    Crucial Ballistix Elite 2x8GB DDR4-2666 @lightOC
    Laufwerke:
    WD Black M.2 500 GB
    Crucial MX500 2 TB
    ASUS BC-12D2HT
    Gehäuse:
    BitFenix Prodigy M schwarz
    Maus und Tastatur:
    Sharkoon Shark Force schwarz
    Logitech G910 Orion Spark
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    LG 27UD58P-B
    Das war für mich auch die größte Enttäuschung an der Geschichte: dass kein Stromsparen im Leerlauf vorgesehen war. Und selbst jetzt mit Meteor Lake, der extra die zwei Kerne dafür im SoC-Chiplet hat, gibt's keine signifikanten Verbesserungen in der Akkulaufzeit.

    Die E-Cores sind überflüssig wie ein Kropf.
     
  16. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.388
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    MSI MPG 321URXDE
    Leider. Wir sehen ja bei Apple sehr gut, wie viel Batterielaufzeit damit möglich ist. Mein M1 MacBook Air hatte unglaublich viel Ausdauer. Das MacBook Pro von der Firma mit M1 Pro, hat nur zwei E-Cores, aber auch die bringen genug.
     
  17. Lemu54 Notebook-Kaufberatungsking

    Lemu54
    Registriert seit:
    2. Februar 2011
    Beiträge:
    3.525
    Ort:
    Internet, duh.
    Mein RIG:
    CPU:
    Ryzen 7 5700X @stock mit Alpenföhn Ben Nevis
    Grafikkarte:
    PowerColor RX Vega 56 Red Dragon @UV
    Motherboard:
    ASUS Prime B350M-K
    RAM:
    Crucial Ballistix Elite 2x8GB DDR4-2666 @lightOC
    Laufwerke:
    WD Black M.2 500 GB
    Crucial MX500 2 TB
    ASUS BC-12D2HT
    Gehäuse:
    BitFenix Prodigy M schwarz
    Maus und Tastatur:
    Sharkoon Shark Force schwarz
    Logitech G910 Orion Spark
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    LG 27UD58P-B
    Apple dürften da sehr die Erfahrungen und Ursprünge in den Smartphone-SoCs helfen. Die fehlen AMD und Intel komplett; und zusätzlich müssen sie obendrauf ein Windows ertragen. :ugly:
     
  18. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.925

    Mich würde das interessieren.
    Als ich vor Wochen mal einfach so geschaut hatte (weil am überlegen war ob ich eventuell ein Plattformupgrade mache) was die 7xxx von AMD so kosten/brauchen war da die Watt Angabe bei den hohen x/X3D CPUs teils bei 150-200 Watt.
    Deswegen wäre es doch schon interessant zu wissen was Intel bei vergleichbaren Setup zieht (oder ziehen lässt).
     
  19. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.388
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    MSI MPG 321URXDE
    Mit 16 P-Cores müssten sie die Taktraten ab einer gewissen Kernauslastung erheblich reduzieren, sonst haut das Ding mehr raus, als ein EPYC mit 192 Kernen.

    Ein 7800X3D kann theoretisch über 100 W verbrauchen, aber das kommt in der Praxis nur sehr selten vor. Ich hab's mal bei Shader Pre-Compilation gesehen, aber ansonsten nur in Benchmarks.

    Ich fliege gerade in MSFS mit einem Fenix A320 (geht ordentlich auf die CPU) von Milwaukee nach DC und bin über dem südlichen Michigan. Nebenbei läuft ein Youtube-Video, es sind jede Menge Chrome-Tabs offen, dazu diverse andere Programme wie Discord, WhatsApp Web, HWINFO etc. Die Package Power schwankt zwischen 64 und 85 W, im Durchschnitt der letzten fünf Minuten sind es 70 W. Ca. 18 W kann man für das I/O-Die abziehen, also brauchen die eigentlichen CPU-Kerne gerade mal knapp über 50 W. Ein 14900K, der noch auch signifikant langsamer in MSFS wäre, würde locker 150 bis 180 W ziehen.
     
    Zuletzt bearbeitet: 3. Mai 2024
  20. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.578
    Man bezahlt sie vor allem mit, ob man sie braucht oder nicht. Ein 14900K, der im Kern trotzdem ein 8-Core ist, weil das die P-Cores sind, kostet dadurch immer noch ab 550€. Ein zumindest in Spielen oftmals gleichwertiger 7800X3D ~350€. Der 14700K, der eigentlich diesen Vergleich antreten sollte, kostet aber auch mehr als 400€. Ansonsten wären die E-Cores nice to have bzw. können es in Zukunft noch werden. Mir ist dabei natürlich bewusst, dass es nicht nur Spiele gibt und die Sache in diversen Anwendungen eher zugunsten von Intel ausfällt, aber da hat AMD einen 16-Core, der meistens mithalten kann und auch ein bisschen günstiger ist als der 14900K/KF...

    Seitdem das AM5 "Gesamtpaket" günstiger geworden ist, steht Intel imo nicht mehr besonders gut da. Auch wo sie früher noch mit günstigen 6-Cores oder sogar 4-Cores punkten konnten, ist nichts mehr. Ich meine wer kauft einen 14100 Quadcore für ~150€? Sowas wäre mir sicher keine 100€ mehr wert. AMD hat für 150€ inzwischen den 8500G, der ein 2+4 Core ist, aber jeweils mit SMT, d.h. es ist technisch gesehen eine 6C/12T CPU, die wahrscheinlich sogar ein bisschen mehr leistet, als ein 14100. (ich kenne dazu keinen Benchmark, aber ich gehe zumindest davon aus) Hat noch eine halbwegs brauchbare iGPU, mit der man notfalls GTA V oder Overwatch spielen kann. :p
     
  21. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.316
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Hier wird der 14100F getestet. Der hat 4 P-Cores und 0 E-Cores. Wobei ich aber nicht sicher bin, ob das wirklich Raptor Lake Cores sind oder noch auf Alder Lake basieren. Ich meine, da war irgendwas bei 13th Gen, dass nur die Top-SKUs die neuen Kerne bekommen haben und der Rest nur olle Alder Lake Cores von der Resterampe. Weiß aber nicht, ob das auf für 14th "Gen" gilt, das ja auch nur ein 13th Gen Refresh war.

    Hier jedenfalls das Review mit Vergleichstabellen zu vielen anderen CPUs von Team Blau und Rot:

    https://www.hwcooling.net/en/intel-core-i3-14100f-four-cores-whipped-to-the-max-review/36/

    Ist natürlich schwierig, irgendwas daraus abzuleiten. Aber immerhin ein Anhaltspunkt.
     
  22. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.316
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
  23. KING123KING123 dumm leckt gut

    KING123KING123
    Registriert seit:
    8. Februar 2007
    Beiträge:
    21.515
    Ort:
    Thüringen
    Revision H0 und in der Tablet steht eigentlich auch recht deutlich "CPU microarchitecture Golden Cove (P)" also Alder Lake.

    ...
    War bei mir letzte Jahr auch der Grund warum es ein 13600K wurde und nichts darunter.
     
  24. Flachzange Like A Rolling Stone

    Flachzange
    Registriert seit:
    11. Juli 2005
    Beiträge:
    39.084
    Ort:
    Flachhausen
    kurze Frage wenn ich mir jetzt einen 32 Zoll 4K Monitor kaufen WÜRDE wie sehr würde es meine 3080 10GB in die Knie zwingen? bzw. in 1440p spielen macht vermutlich bei einem 4K Monitor wenig Sinn, bleibt nur DLSS oder Details runter oder hab ich da einen Denkfehler?
     
  25. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.391
  26. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Flachzange, joine doch lieber der Ultra-Wide-Fraktion und gönn dir einen 34 Zoll (QD)OLED! ^^

    Sitzt von der Pixeldichte zwischen 32 Zoll WQHD und 4K, was mMn scharf genug ist, perfekt auch für DLSS im Modus "Balanced" in den allermeisten Spielen die ich probierte. Im Unterschied zu einem 4K Monitor muss er aber etwa 3,3 Millionen Pixel weniger stemmen! :teach:


    PS: Sorry, ich hab das mit OLED freilich rein interpretiert, davon hast du ja gar nichts geschrieben. :D Gibt aber sicherlich auch 34 Zoll UWQHD LED Monitore.


    PPS: Dein Wortspiel mit dem "Ort", was früher sicherlich "Von" war, unter dem Avatar, funzt nicht mehr. Änder das mal, das triggert mich lol. :ugly:
     
    manfred4281 und Carinthian Oak gefällt das.
  27. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.925
    Das kommt stark drauf an welche Spiele du spielen willst......
     
  28. Lemu54 Notebook-Kaufberatungsking

    Lemu54
    Registriert seit:
    2. Februar 2011
    Beiträge:
    3.525
    Ort:
    Internet, duh.
    Mein RIG:
    CPU:
    Ryzen 7 5700X @stock mit Alpenföhn Ben Nevis
    Grafikkarte:
    PowerColor RX Vega 56 Red Dragon @UV
    Motherboard:
    ASUS Prime B350M-K
    RAM:
    Crucial Ballistix Elite 2x8GB DDR4-2666 @lightOC
    Laufwerke:
    WD Black M.2 500 GB
    Crucial MX500 2 TB
    ASUS BC-12D2HT
    Gehäuse:
    BitFenix Prodigy M schwarz
    Maus und Tastatur:
    Sharkoon Shark Force schwarz
    Logitech G910 Orion Spark
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    LG 27UD58P-B
    Das helle Thema? Ernsthaft? :ugly:
     
  29. Flachzange Like A Rolling Stone

    Flachzange
    Registriert seit:
    11. Juli 2005
    Beiträge:
    39.084
    Ort:
    Flachhausen
    Ist ja nicht so als wär ich nicht längst in der Ultra wide Fraktion :ugly:

    https://iiyama.com/de_de/produkte/g-master-gb3466wqsu-b1/

    grundsätzlich bin ich ja zufrieden und ultra Wide ist auch geil der Monitor hat halt die typischen VA Krankheiten man kann damit leben dafür war er günstig aber in letzter Zeit nervt mich 21:9 mal mehr mal weniger vor allem da scheinbar immer noch viele Indie Entwickler mit Ultra wide ihre Probleme haben und sie UE das Problem mit dem reinzoomen bei Ultra Wide so wie scheinbar bei „The Invincible“ das ich mir gerne kaufen würde. Da liest man dann so Späße das der Helm reingezoomt wird und das nervt dezent.

    deswegen die Überlegung, hab auch kurz überlegt wieder auf 27 zu gehen und dann OLED :ugly: man will halt meist nicht mehr kleiner gehen deswegen die Überlegung mit 32 Zoll dafür aber wieder mit besserer Kompatibilität 16:9

    ach am Ende behalte ich eh meinen Monitor und warte wieder ein Jahr
     
  30. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ja, das dunkle hatte immer irgendwelche Macken. Ich nutze ja eh das Firefox-Addon "Dark Reader". ^^
     
  31. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.391
  32. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.316
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Oof, das kacke

    Aber aus Intel Sicht irgendwo nachvollziehbar. Lieber das (aktuell noch) einträgliche Mobile Segment priorisieren, bevor AMD mit Strix Point und Strix Halo die dicke Kelle rausholt, als ins von nVidia hart dominierte GPU-Business investieren.
     
  33. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.753
    Ort:
    D
    Ich fände es ja tatsächlich einen Verbraucher-IQ-Test, sollte die kleine Battlemage für ~200 Dollar in etwa 4060/ti-Performance draufhaben und die große für 400-450 sich mit ca. der 4070/ti batteln. Entsprechende Treiberliebe vorausgesetzt; besseres Raytracing als AMD hatte Arc ja schon First Gen.


    Kommt jetzt halt irgendwann vielleicht ein Chinakracher, der's richtet. :D
     
  34. Liver

    Liver
    Registriert seit:
    25. Juli 2006
    Beiträge:
    2.176
  35. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.391
    https://wccftech.com/dlss-3-wont-be-in-homeworld-3-at-launch-after-all/

    :rotfl: :ugly:
     
  36. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Also...steckt da quasi eine veraltete dll drin. Die ersetze ich dann durch die aktuelle und voilá, DLSS 3.7.0. :confused:
     
  37. KING123KING123 dumm leckt gut

    KING123KING123
    Registriert seit:
    8. Februar 2007
    Beiträge:
    21.515
    Ort:
    Thüringen
    https://www.computerbase.de/2024-05...-settings-mit-125-188-w-bis-ende-mai-pflicht/

    Das nenne ich dann mal Kastration beim i9. :ugly:
     
  38. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.435
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Mal schauen ob und was passiert. Eigentlich müssten die meisten Seiten jetzt nachtesten und die Ergebnisse deutlich nach unten korrigieren. Aber wer möchte den Aufwand betreiben, für eine CPU die nicht gerade erst erschienen ist? Das klickt sich doch nicht und Webseiten betreiben kostet ja Geld.

    Und eigentlich müsste es einen gigantischen Aufschrei unter den Nutzer geben, angefangen bei Rückgaben, bis hin zu einer Sammelklage.

    Oder aber es passiert einfach gar nichts. :ugly:
     
  39. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.316
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Dann kann man sich ja jetzt die Benchmark-Werte des Gigabyte Boards aus dem HW Unboxed Video angucken und sehen, wie ein 14900K mit den Default Settings performed, ohne sich fragen zu müssen, ob das ein Bug ist

    https://youtu.be/OdF5erDRO-c?si=vhVhzF3WnQ7WOAyK

    Alter Schwede, was ein Desaster für Intel.
     
  40. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.925

    Ja, machen wir einen Aufschrei und bereiten Klagen vor.....für ein Bios Update welches niemand gezwungen ist zu machen..... sollte den für die alten Boards eines kommen.....:ugly:
     
Top