i7 of Xeon voor daw ?

flyweight

Spice up your life with FM and Feedback
Lid sinds
10 november 2010
Berichten
11.141
Locatie
HybriDe L!Fe
Kort: welke i7-4960X eof E5-4657v2?

Lang:

Ik heb een mainboard met Intel X79 chipset en Xeon E5-2630 SR0KV (6 CORES) 16GB Ram

Nu zie ik dat de prijzen voor de volgende CPU's best laag zijn. i7-4960X en E5-4657v2

Nu will ik een 'nieuwe' CPU kopen en hoop daarmee redelijk http://acustica-audio.com nebula te kunnen draaien en dikke max patches te kunnen maken..
Nou ja de horror verhalen over CPU load en Nebula... ga het iig proberen.

https://www.gigabyte.com/Motherboard...rt#support-cpu

12 cores 24 threads, 2.4 GHZ Xeon E5-4657v2

24x 2.4 = 57.6

VS

6 Cores 12 threads, 3.6 GHZCore i7-4960X

12x 3.6 = 43.2

Ik gebruik Ableton en hier een stukje over threading.

https://help.ableton.com/hc/en-us/ar...U-handling-FAQ

Ableton schreef:
- More cores, slower clock speed
Pros
Live supports multi-threading, therefore the more cores are available, the more efficient it will be when working with larger sets with higher track counts, or when working with large instrument or effect racks.
You'll probably be able to run more apps in conjunction with Live without seeing performance drops.

- Cons
Lower single-threaded performance than a higher clock speed processor.

- Fewer cores, higher clock speed
Pros
Better single threaded performance.

Cons
Fewer cores to split between applications.
Not as strong multi-threading performance.
 
de single core prestratie is ook van groot belang, een DAW gebruikt zeker 1 core voor de audio engine (dat kan niet over cores verspreid worden, of nog niet), en er zijn plugins die single core zijn. dat staat ook in het stukje van ableton, ik heb een aantal plugins die single core zijn, en de core leeg trekken....

het rekensommetje van alle cores klopt natuurlik niet, er is altijd overhead, en de zogenaamde schaling. multi-trhead applications schalen, dat betekent dat door het spreiden over de cores, er snelheid verloren gaan. wel is het zo dat parallelle processing steeds beter wordt.

en zijn het de baseclocks? intel heeft turboboost, ik ken de proc's die je noemt niet. maar turboboost is afhankelik, kwa snelheid, hoeveel cores er maximaal gaan draaien, hoe meer cores op hoge frekwentie, hoe lager de frekwentie.

voorbeeld: mijn studio daar zit een i7 6700K in. wanneer ik 'm niet zou overclocken gaat volgens bij full load, of een flinke load, de turbo snelheid van alle cores naar 4.0 ghz. dacht ik. de turbosnelheid staat gespecifieerd als 4.4, maar dat is dan alleen het geval bij 1 of 2 cores, bij 2 cores gaat ie volgens mij al naar 4.2.

simpele overclock, de cores draaien, wanneer ik dat wil, op 4.4 ghz, een konservatieve overclock. en dat kan ie uren volhouden.

EDIT: via jou rekensom zou ie dan 8 x 4.4 = 35.2 zijn.... maar goed schaling, overhead, etc. en de cache is niet zo groot, etc. wel een nieuwere generatie, waarbij de ipc bij dezelfde kloksnelheid wat hoger ligt. (en heb in mijn laptop een i9-9750H zitten, een hexacore. die bij 100% naar 3.2 ghz zakt, terwijl de turboboost 4.6 is... maar dat heet throttling, iets wat bij alle laptop, met uitzonderingen, altijd gebeurd. theoretsch sneller dan mijn i7 6700k in de praktijk, hangt het af van het programma.)

hier de intel info, de turbosnelheid moet je met een korreltje zout nemen dus, een goede koeler of waterkoeling... voor een 130watt TDP, en vergeet niet dat dit eigenlik maar een modelgetal is, hij kan er flink overheen gaan, b.v. als er AVX instrukties worden gebruikt...

https://ark.intel.com/content/www/us...-4-00-ghz.html

de xeon: 115watt, goede koeler of waterkoeling.

https://ark.intel.com/content/www/us...-2-40-ghz.html

2.6 ghz is wel erg laag, als turboboost... maar goed, hij heeft wel een immense cache, meerdere faktoren spelen mee, in de single core prestraties. google eens "cpu benchmark", daar staan vergelijkingen, wel gebaseer op benchmarks, notoir onbetrouwbaar, maar wel richtinggevend.

ik zie dat t case waarden veranderd zijn lijkt het, zeer laag. goed of ze gebruiken nu een ander model. ik zie bij mijn 6700k een t case staan 67 graden celcius, dacht dat ie 100 graden aankon (dat is wel echt het maximale). goed dat is weer wat anders.
 
Laatst gewijzigd:
Screenshot from 2019-11-13 15-16-29.png

Hmmm als ik zo deze getallen begrijp is de Xeon de baas in overall performance maar idd de 'Single Thread Performance' van de i7 is beter.
Dus lijkt het mij als je niet teveel fx sends en/off sidechain gebruikt zou je met de Xeon meer kunnen doen.
Anyhow aangezien ik een Xeon E5-2630 SR0KV kan ik natuurlijk kijken in hoevere de cores benut worden en/of juist meerdere cores of hogere clock me gaat helpen.


abletonnetje schreef:
How many threads are used per Live track?

Live uses one thread to process a signal path.

A signal path is a single chain of audio flow. In tracks where instrument or effect racks are used, with multiple chains in parallel, Live may use one thread per chain depending on how CPU-intensive each chain may be.
If two tracks are "chained" by routings, for instance by a side-chain routing, a track being fed to a return track or any tracks being fed into each-other, they are considered dependent tracks and count as one signal path. Any dependant set of tracks will use one thread each.
 
Het is voor een DAW eigenlijk vrij simpel samen te vatten. Werk je met veel of zware plugins per sessie, of doe je vooral opnemen. Een hoge clock per core is altijd winst, al is het maar omdat multithreading bij veel DAW's verreweg van optimaal is. Ongeacht of het i7 of Xeon is. Wat een groter verschil maakt tussen die twee, is voor het algemeen functioneren van je systeem, het soort werkgeheugen. Xeon's hebben ondersteuning voor ECC geheugen, dit heeft een foutcorrectie en beperkt het aantal crashes aanzienlijk. Dit is bijvoorbeeld ook de reden waarom veel studio's een Mac Pro hebben en niet een iMac (waar een standaard desktop cpu in zit).
 
Anyhow aangezien ik een Xeon E5-2630 SR0KV kan ik natuurlijk kijken in hoevere de cores benut worden en/of juist meerdere cores of hogere clock me gaat helpen.

klopt, dat wilde ik nog zeggen, je weet al wat ie kan met wat je hebt.

https://ark.intel.com/content/www/us...intel-qpi.html

het is uitzoeken, ik merk dat een b.v. 3.0 ghz snelheid het bij mij met een aantal plugins onmogelik wordt om mee te worken. of 2.6 ghz. goed, vergeet de cache niet. de single core prestaties lopen wel erg uiteen. maar hoeft geen probleem te zijn. overigens zijn deze cijfers zéer richtinggevend. de algehele prestaties lopen niet erg uiteen. maar dit is een algemene benchmark, het hangt ook van het programma af. daarom zie je bij processor reviews ook benchmarks met programma's, photoshop of premiere b.v. en dan kan een proc ineens veel beter presteren in die specifieke gevallen dan waarmee ie vergeleken wordt.

goed, dit is uitzoekwerk, ik herhaal. ben benieuwd. ik ga wanneer de "dust settles", en er een nieuwe intel generatie uitkomt, naar een 8 core. moederbord en cpu verkopen, of wellicht over een jaar of 2, de i9-9900K 2e hands... 8 cores lijkt me genoeg voor wat ik doe. ik loop op dit moment ook niet tegen cpu problemen op. de i7 6700k, al is ie flink ingehaald, maar heb 'm moeten kopen, of moeten, vanwege de dood van een moederbord, en dacht ik ga gelijk voor het nieuwste, maar. een jaar later waren de kaarten geheel anders geschud, had ik voor dezelfde prijs een i7 8700k kunnen kopen, maar ja. dat blijft.

sukses! wellicht zijn ervaringen te vinden op gearslutz of kvr, of daar vragen. zie veel mensen met dit soort configuraties.
 
vink en Accelarator super bedankt voor jullie feedback.
Hellaas ondersteund mijn mainboard geen ECC.
Onlangs liep ik met de Ircamax 2 plugins tegen een performance hit aan.
Wat vrijwel zeker om single threaded performance gaat omdat het om 1 instance gaat.

De i7-4960X is zoals de E5-2630 6 cores maar wel dubbel zo snel.

Zal voor de zekerheid eens kijken maar als alle cores nu met de E5-2630 niet volledig benut zijn ga ik voor de i7-4960X.
Maar dat is eigelijk wat jullie al zeggen :D
 
Dat past niet in mijn Mobo :)

Edit: ah had de post van Vink gemist

amd is natuurlik een alternatief, maar dan moet je ook snel geheugen hebben, want de amd zen3 (en de vorige generaties) zijn afhankelik van de geheugensnelheid voor de kommunikatie tussen cores, want ze gebruiken niet 1 die, en er is nog iets, wat ik vergeten ben. op KVR is er een thread over amd, verhalen verschillen. maar ik heb het gevoel dat intel beter blijft voor DAW's, want: dit is er ook nog: een programma kan geoptimaliseerd worden voor intel of amd... tegelijkertijd zou ook kunnen, dat doet windows 10 1903 ook al, maar meestal richten ze zich op intel... (meldaproduction, ik ben zijn naam even vergeten, optimaliseert zijn plugins voor intel... de compiler heeft invloed en hoe je programmeert natuurlik). en het moederbord, waarmee je ook moet uitkijken, aktieve koeling (of was dat intel, haha). dat betekent niet dat amd slecht cpu's maakt nu, integendeel. en ze hebben intel gedwongen eindelik meer cores te geven voor hetzelfde geld....

en als je al het moederbord hebt en geheugen, en je kunt goedkoop een mooie cpu skoren. ik had het wat opengelaten, maar zelf zou ik voor de 4690X kiezen, en heb het vermoeden dat ie te overclocken valt... maar in dat geval moet je zeker naar waterkoeling, vanwege de warmte, de wattage gaat dan flink omhoog.

goed. handig dat je lekker kunt upgraden met een "oudere" cpu, voor weinig geld, dunkt me.
 
Persoonlijk zou ik gaan voor de Ryzen 9 3950X, maar das persoonlijk ;)
Wat ook best wel helpt is zoiets als asio4all, aangezien wasapi het er niet sneller op maakt, eerder langzamer. En dit is niet te compenseren met een snellere processor.
 
amd is natuurlik een alternatief, maar dan moet je ook snel geheugen hebben, want de amd zen3 (en de vorige generaties) zijn afhankelik van de geheugensnelheid voor de kommunikatie tussen cores, want ze gebruiken niet 1 die, en er is nog iets, wat ik vergeten ben. op KVR is er een thread over amd, verhalen verschillen. maar ik heb het gevoel dat intel beter blijft voor DAW's.

Ik draai 24/7 productie op een AMD Ryzen Threadripper 1950X met NZXT 62 en 64GB DDR4-3200. Kan je vertellen dat de productiviteit bijzonder hoog en stabiel ligt :) Ik draai Pro Tools 12.7 , Studio One 4.5, Ableton 10, Cubase 10 en Bitwig 3. Bij allemaal geen vuiltje aan de lucht :okdan:
 
Zoals ik het heb begrepen is inderdaad een hoge single core performance/snelheid het meest waardevol, omdat audio altijd over sequentiele processen gaat, die dus niet parallel verwerkt kunnen worden. Wat dan ook weer een van de redenen zou zijn waarom multi core ondersteuning moeilijker is.
 
Een Xeon, maar uiteindelijk hangt het af van hoeveel transistoren er per core inzitten,iets wat belangrijker is dan de clock of het aantal cores!
 
egres en hoe tel ik die transistors ? :D

Het zou best wel eens kunnen dat hyperthreading de performance van je DAW verminderd als je dit leest iig.
Om dat Hyperthreading threads aan zowel logical als virtual cores toewijst.
Die virtual Core kan dus dezelfde core zijn als een ander thread gebruikt en heeft minder power.
Nu is het niet handing om hyperthreading volleding uit te zetten maar kun je dat wel voor alleen je DAW doen. ( https://bitsum.com/get-lasso-pro/ ).
Ik ga dit eens testen.

https://bitsum.com/when-hyper-threading-hurts/


https://forum.ableton.com/viewtopic.php?t=34571
hier zegt iemand van abletom dat HT automatisch voor Ableton al word uitgezet.
 
Een Xeon, maar uiteindelijk hangt het af van hoeveel transistoren er per core inzitten,iets wat belangrijker is dan de clock of het aantal cores!

egres en hoe tel ik die transistors ? :D

Het zou best wel eens kunnen dat hyperthreading de performance van je DAW verminderd als je dit leest iig.
Om dat Hyperthreading threads aan zowel logical als virtual cores toewijst.
Die virtual Core kan dus dezelfde core zijn als een ander thread gebruikt en heeft minder power.
Nu is het niet handing om hyperthreading volleding uit te zetten maar kun je dat wel voor alleen je DAW doen. ( https://bitsum.com/get-lasso-pro/ ).
Ik ga dit eens testen.

https://bitsum.com/when-hyper-threading-hurts/


https://forum.ableton.com/viewtopic.php?t=34571
hier zegt iemand van abletom dat HT automatisch voor Ableton al word uitgezet.

het aantal transistors, dat is nogal een ruim begrip, maar ik denk dat je doelt op de IPC, maar dat wordt ook door vele andere factoren bepaald, de cache, de branche prediction, etc. etc. (IPC, volgens mij instructions per clock).
het is een samenspel van vele faktoren: clock, cores, cache, geheugensnelheid (meer bij foto/videobewerking), branche prediction, de pipeline, en vele andere technieken die in een proc zitten om meer IPC te krijgen, dus meer instrukties per klok tik...

veel programma's hebben al door welke core een HT is en niet. simpel tellen, en het valt uit te lezen natuurlik. de scheduler van windows 10 schijnt wel verbeterd te zijn.

nooit gehoord van lasso. er is een lange diskussie, lang in tijd en tekst, over HT. het kan ook heel systeemspecifiek zijn. dus uitproberen.

o ja core parking kan ook prestraties tegenhouden, had ik last van op windows 7. niet meer op windows 10, nu geheel over, bijna alle pc's naar 10. er is een speciaal programma voor, gratis, als je nog win 7 gebruikt.

zoals je ziet het is een lastige diskussie... de kompleksiteit van een pc, de pcie lanes, hebben we niet eens over gesproken, een grafische kaart die door een interupt (of een driver die niet goed geschreven, voor de grafische kaart of andere "onderdelen") de boel ophoudt. dus er is zoveel gaande, aan rondpompen van data, en al die data rondpompen kost tijd en de proc moet beslissen, wanneer er instrukties komen hoe die juist uit te voeren, en ze hebben allerlei trucjes ingebouwd om dat zo snel mogelik te doen. een veelheid, die ik niet kan overzien. ik programmeer niet meer....

Accelarator wow mooie setup. en zie; het werkt goed, zeer goed zelfs. ik ben eveneens verleid om over te stappen. maar het is nog geen tijd voor overstap, alles werkt nog naar behoren, en ik kom alleen in de problemen wanneer ik ga testen met plugins in cubase, of een andere DAW, die de cpu goed leegtrekken, dan kom ik redelijk ver, want het zijn echte cpu vreters. maar dat scenario komt niet voor, ook vanwege dat het net werkt, maar vooral in de praktijk.
het gaat dan om soft-modulars. en gebruik softube modular, reaktor, samen, meerdere instanties en dat gaat. ik heb nooit zoveel tracks, met uitzonderingen overigens kom ik over de 10, het hoogste 24, maar dan reken ik ook een drumkomputer mee... ik wacht ook wat het antwoord van intel is. een amd overstap zou me meer geld kosten, vreemd genoeg. alhoewel, wanneer ik ook het geheugen verkoop.

dus amd, wanneer mensen deze thread voor algemene info lezen, is natuurlik zeer geschikt, en bang for the buck.

terug naar transistoren? naar de cache? de L1, L2, L3 cache (of bestaat de L3 cache niet meer, ik vergeet het...). de kommunikatie "ring" om de cores, de thread balancing, branche prediction, IPC, clock, cores, dies (of de cores op 1 of 2 dies zitten), etc, etc.

het is een akademische studie, waar een processor aan moet voldoen....

en het samenspel van OS met de proc en het samenspel van een programma met een proc....

heb ik het ook voer PCIe lanes gehad, ook van belang, Accelator, zal daar geen problemen mee hebben. en flyweight ook niet, de prof proc's hebben meer PCIe lanes. en je hebt ook weer generaties er in, die elke keer de doorvoer per lane verdubbelen (ik zeg maat wat), we zitten al op x4.

en zo kunnen we doorgaan.
 
het aantal transistors, dat is nogal een ruim begrip, maar ik denk dat je doelt op de IPC, maar dat wordt ook door vele andere factoren bepaald, de cache, de branche prediction, etc. etc.

Of ja ICP,maar ik weet niet wat 1 instruction inhoudt ,als 1 Instruction = aan enkel 1 enkele schakeling van een transistor dan is het zelfde,anders niet he,daarom ik lompweg 'aantal transistoren' gebruikt.

Clock en alle andere factoren spelen een rol natuurlijk,en als er veel transfer is zit je met de bottleneck natuurlijk,maar verder wat betreft processing maakt de clock minder belang als er een shitload aan transistoren achter zit.

het komt er eigenlijk op neer dat elke clock/comando een vertraging is omwille dat het in een tijdlijn werkt terwijl het aantal transistoren tegelijk ter beschikking je werkelijke ter beschikking gestelde realtime processing kracht is.

Eigenlijk moeten ze die processoren niet steeds kleiner maken maar 4 x zo groot zodat er meer transistoren in kunnen zonder te kloten met isolatie of warmteproblemen,maar goed dat is meer toepasselijk voor grafische processing,ik denk steeds aan de Itanium processoren destijds gebruikt in de Silicon Graphics workstations waar veel meer transistoren in zaten in vergelijking met de toen andere processoren op de markt.
 
Laatst gewijzigd:
Of ja ICP,maar ik weet niet wat 1 instruction inhoudt ,als 1 Instruction = aan enkel 1 enkele schakeling van een transistor dan is het zelfde,anders niet he,daarom ik lompweg 'aantal transistoren' gebruikt.

Clock en alle andere factoren spelen een rol natuurlijk,en als er veel transfer is zit je met de bottleneck natuurlijk,maar verder wat betreft processing maakt de clock minder belang als er een shitload aan transistoren achter zit.

het komt er eigenlijk op neer dat elke clock/comando een vertraging is omwille dat het in een tijdlijn werkt terwijl het aantal transistoren tegelijk ter beschikking je werkelijke ter beschikking gestelde realtime processing kracht is.

Eigenlijk moeten ze die processoren niet steeds kleiner maken maar 4 x zo groot zodat er meer transistoren in kunnen zonder te kloten met isolatie of warmteproblemen,maar goed dat is meer toepasselijk voor grafische processing,ik denk steeds aan de Itanium processoren destijds gebruikt in de Silicon Graphics workstations waar veel meer transistoren in zaten in vergelijking met de toen andere processoren op de markt.

goed. het is lang geleden. een processor heeft registers, waarin data wordt geplaatst die kunnen worden bewerkt, een instruktie is niet een schakeling van éen transistor. ik zou niet weten hoe dat nu zit. vroeger programmeerde ik in assembler, i.e. direct de taal van de cpu, maar dat was een z80b, nu 35 jaar geleden.

een instruktie kan zijn ADD, en dan moet je aangeven wat dan opgeteld moet worden, dat invoeren in register A en B, en dan ADD A B (ik weet de mnemonics niet meer uit mijn hoofd). instrukties zijn veel komplekser geworden, ik ken de huidige instruktieset niet. een AVX instruktie is een komplekse instruktie, die volgens mij veel transistors gebruikt, of denk ik, aangezien dat de processor flink belast, niet in clocksnelheid, maar het produceren van warmte, daar staan ze om bekend, tevens, voor benchmarks, je kunt naar 130 watt gaan met louter avx instrukties of hoger, op mijn proc.

mijn ADD voorbeeld is heel oud. ik heb me simpelweg nooit verdiept in de x86 instruktieset, en x64, en de SSE (SSE x, x,) en AVX (en AVX512, AVX werkt met registers van 128? en AVX512 van 512, het zal niet zo simpel zijn, ze zijn er voor kompleksere formules...).

je hebt gelijk dat ze processoren groter moeten maken, alhoewel, dan wordt de afstand steeds groter tussen de onderdelen, en op het nivo waar ze nu zitten 10 nanometer, amd zegt 7 nM komt er aan. nu ga ik brabbelen, intel zit nog op 14 nM, maar dat is vrijwel identiek aan 10 nM bij anderen. waarom?

maar goed de afstand bepaalt ook de snelheid wanneer ik het begrijp. een grotere die, betekent dat de connecties, intern, langer zijn. op dit nano nivo schijnt dat een probleem te zijn.

ik lees er veel over, had er ooit talent voor, maar het is te lang geleden. en ik ben daarna naar C overgestapt, heb 20 jaar geleden nog 2 jaar geprogrammeerd, voor het plezier (sja niet helemaal, maar dan komt een heel levensverhaal, dat eigenlik hier al ergens rondslingert op SF...).

dus ik ben ver van een ekspert. het aantal transistoren, betekent ook meer warmte, en ze moeten kleiner worden. ze zijn nu al 3D, en ze werken eigenlik als gates, wat transistoren in wezen ook zijn. ze gaan de hoogte in, ipv van de breedte, wat ook weer problemen geeft.

goed, 4x maal zo groot, soms denk ik dat ook, maar volgens mij krijg je dan weer andere problemen, hoe korter de afstand tussen de connecties binnen een die, of rondom of hoe het ook precies zit, is van belang, meen ik te begrepen hebben.

maar in zekere kan ik je volgen, ze zitten nog al gevangen in een bepaald denken, maar goed, als ze het omgooien, zoals met itanium processoren, die erg goed waren inderdaad, krijg dat veel software niet goed werkt.

en is het niet zo dat alle proc's nu uiteindelik RISC processoren zijn, en dat instrukties eerst vertaald worden naar RISC (om het krom uit te drukken). even opgezocht, ja intern RISC processoren. goed nu raak ik het zelf kwijt, er zijn ook nog vertaalslagen...... ARM processors zijn RISC, en intel ook. ik neem aan dat AMD dat ook doet. niet alle proc's zijn RISC lijkt. of in ieder geval de kern, want de vertaalslagen gaan wel via pipeline(s), de lengte van een pipleline is ook van belang, want daar worden de instrukties opgeslagen die moeten worden uitgevoerd en wellicht al omgezet, maar is ook branche prediction, dat de proc vooruit denkt, welke instruktie gaat volgen. wanneer dat niet het geval is, moet de hele pipeline geflusht worden.. een instruktie inladen kost een tik, of meerdere. goed. ik denk dat een ekspert het beter kan uitleggen.

een heel verhaal, blijf het wel interessant vinden. en wellicht heb ik ongelijk met de afstanden, kan een 4x grotere die, veel dingen meer. met andere oplossingen voor de lengte die de data moeten overbruggen.

een huidige processor is zo kompleks geworden, RISC als werkelikke "processor", en alles er om heen, om de RISC zo snel mogelik te voeden. niets is zo erg als een verloren tik, of tikken.

maar door meer transistoren, er zit er al miljarden op, volgens mij (zeker op grafische kaarten, de GPU), kunnen instrukties, ach ik stop ik weet het niet meer...
 
Het interresant ,maar ik ga er van uit dat op termijn de miniaturisering zal stoppen en dat dit zal vertaald zal worden in meer cores en hogere clocks maar met minder transistoren (omwille van de warmte) erin om je de indruk te geven dat het krachtiger wordt terwijl er process power maar lichtjes linear zal toenemen inplaats van exponentiel,en dit gaan ze dan weer zo lang mogelijk rekken tot er een geheel nieuw processor technologie beschikbaar is.

Is op zich een goede oplossing maar de bus moet volgen en alle software moet slim multithreading compatibel zijn...

Meer cores met minder transistoren betekend sneller reset status nodig per core ,dus normaal dat de clock hoger moet om het zelfde te bekomen als in een core met meer transistoren aan lagere clock.

MAW ,niet te snel in de toekomst upgraden van processoren en mainboards en je laten verblinden door aangegeven clocksnelheden..
 
en is het niet zo dat alle proc's nu uiteindelik RISC processoren zijn, en dat instrukties eerst vertaald worden naar RISC (om het krom uit te drukken). even opgezocht, ja intern RISC processoren. goed nu raak ik het zelf kwijt, er zijn ook nog vertaalslagen...... ARM processors zijn RISC, en intel ook. ik neem aan dat AMD dat ook doet. niet alle proc's zijn RISC lijkt. of in ieder geval de kern, want de vertaalslagen gaan wel via pipeline(s), de lengte van een pipleline is ook van belang, want daar worden de instrukties opgeslagen die moeten worden uitgevoerd en wellicht al omgezet, maar is ook branche prediction, dat de proc vooruit denkt, welke instruktie gaat volgen. wanneer dat niet het geval is, moet de hele pipeline geflusht worden.. een instruktie inladen kost een tik, of meerdere. goed. ik denk dat een ekspert het beter kan uitleggen.

een heel verhaal, blijf het wel interessant vinden. en wellicht heb ik ongelijk met de afstanden, kan een 4x grotere die, veel dingen meer. met andere oplossingen voor de lengte die de data moeten overbruggen.

Als je logish nadenkt om de tijdlijn te doorbreken en exponetiele processing kracht te bekomen is er maar 1 oplossing en dat is pulse modulatie en via optische geleiding en een andere type 'transistor' want anders zit je weer met de bottleneck bij het omzetten van licht naar electronen binnenin de processor wat totaal zinloos zou zijn...

Ik vermoed dat de tussenstap de komende 30j eerst nog zal zijn betaalbare server-type MB met meerdere processoren en alle software daarop afgestemt...
 
Laatst gewijzigd:
Het interresant ,maar ik ga er van uit dat op termijn de miniaturisering zal stoppen en dat dit zal vertaald zal worden in meer cores en hogere clocks maar met minder transistoren

Ligt er een beetje aan of google's quantum computer technologie ook voor de normale computer gebruikers beschikbaar wordt.
Die is wel frikkin snel. Op cnet stond: "Our machine performed the target computation in 200 seconds, and from measurements in our experiment we determined that it would take the world's fastest supercomputer 10,000 years to produce a similar output," :doei:
 
Back
Top