Vi har förtydligat hur vi behandlar personuppgifter och cookies.
Du följer nu ämnet: STOCKHOLMS STAD (sparas i Mitt DN)
Vetenskap

Framtidens datorer efterliknar hjärnan

Other: Fredrik Sandberg/TT

Datautvecklare inspireras av hjärnan när de för första gången på 70 år måste tänka i helt nya banor.

– Det har inte varit så här spännande att arbeta med datautveckling sedan 1940-talet, säger Stanley Williams, chef för gruppen för grundläggande teknik på Hewlett Packard Labs i Palo Alto i Kalifornien i USA.

– Nu är vi till slut tvungna att göra något nytt. Och vi får äntligen göra något nytt, säger han.

Datorer har varit uppbyggda på nästan samma sätt i mer än 50 år, och bara blivit mindre och snabbare. I mitten av 1960-talet formulerade Gordon Moore sin berömda lag om att antalet transistorer som får plats på ett chip fördubblas var 24:e månad.

Det var en ovanligt framsynt förutsägelse som har hållit ända fram till i dag.

– För att förstå vad Moores lag innebär kan vi tänka oss att varje komponent eller transistor är stor som ett sandkorn. I själva verket är de mycket mindre, säger Randy Bryant, professor i datavetenskap vid Carnegie Mellon University i Pittsburgh i Pennsylvania i USA.

År 1970 fick det plats 2.300 transistorer på ett chip. 2 300 sandkorn är en liten nypa sand som ryms på ett tiocentsmynt. Dagens största integrerade kretsar har ungefär fem miljarder komponenter.

– Det motsvarar lika många sandkorn som ett större sandslott, säger Randy Bryant.

Om Moores lag fortsätter att gälla i 50 år till skulle vi år 2065 ha integrerade kretsar med mer än 10 biljarder komponenter, alltså en etta med 16 nollor efter. 10 biljarder sandkorn är en miljon kubikmeter sand, eller tillräckligt mycket för att bygga tre hela Empire State Building av sand, i naturlig storlek.

– Det låter omöjligt. Men år 1965 var det nog ganska svårt att föreställa sig att folk i dag skulle gå omkring med några miljarder transistorer i fickan, säger Randy Bryant.

Det skulle i alla fall vara omöjligt att göra ett chip med 10 biljarder komponenter så tunt som chipen är i dag, eftersom komponenterna då skulle behöva ligga tätare än atomerna i en kiselkristall.

Foto:

Men den största utmaningen enligt Randy Bryant är energiförbrukningen. Dagens superdatorer behöver mer än 10 megawatt för att fungera. Det motsvarar den totala strömförbrukningen för ett mindre samhälle med 10.000 invånare. Vår hjärna, som innehåller ungefär 84 miljarder nervceller, drar däremot bara 15 watt.

– Per komponent eller nervcell är hjärnan 53 gånger mer energieffektiv än en dator. Skulle vi kunna göra något som liknar neuroner? Vi behöver stora vetenskapliga genombrott och helt nya sätt att konstruera datorer, säger Randy Bryant.

Thomas Theis, professor och ledare för Columbia Nano Intitiative vid Columbia University i New York, håller med.

– Vi börjar nå de ekonomiska gränserna, där det blir för dyrt att göra saker. Vi kan inte ha mobiltelefoner som laddar ur batteriet på en timme, till exempel, säger han.

För vissa av datorernas delar har utvecklingen stannat av.

– Vi hade 4-gigahertzprocessorer 2005, och vi har 4-gigahertzprocessorer nu, säger Thomas Theis.

Per komponent eller nervcell är hjärnan 53 gånger mer energieffektiv än en dator. Skulle vi kunna göra något som liknar neuroner?

Utvecklingen måste börja gå i nya riktningar, där forskare och ingenjörer kan hitta komponenter som kan hjälpa, överträffa eller ersätta vanliga datorer. Datorer byggs fortfarande efter principer som matematikerna John von Neumann och Alan Turing föreslog 1945. Det är en användbar arkitektur för att göra snabba beräkningar, men den passar sämre för att känna igen mönster och bilder, hitta samband eller styra rörelser, och annat som vår hjärna är bra på.

– Maskiner som är inspirerade av hjärnan är ett viktigt nästa steg, men vi behöver inte stanna där. Den verkliga framtiden för datorer är att hitta många olika typer av arkitekturer som är anpassade till olika typer av uppgifter, säger Thomas Theis.

Stanley Williams på Hewlett Packard Labs är inte så imponerad av dagens artificiella intelligens.

– Programmen är förfärande ineffektiva. De är inte speciellt bra på ansiktsigenkänning. De är inte speciellt bra på så kallad deep learning. Vilken treåring skulle behöva se 100.000 bilder av katter innan hon kan lära sig känna igen en katt?

Hjärnan har ett mycket effektivare sätt att hantera data och göra beräkningar. Vi vet fortfarande mycket lite om hur hjärnan fungerar, men även den begränsade kunskapen kan hjälpa oss att göra mer effektiva datorer.

– Hjärnan kommunicerar digitalt och gör beräkningar analogt. För vissa typer av problem är det oerhört mycket mer effektivt än vårt digitala sätt att göra saker på, säger Stanley Williams.

Datorer omvandlar analoga signaler till digitala innan de kan göra några beräkningar, och får sedan åter göra dem analoga.

– Om vi kunde göra allt det analogt utan att behöva bekymra oss om bitar och ettor och nollor skulle det innebära enorma förbättringar av systemens effektivitet, säger Stanley Williams.

Han tar synnerven som exempel.

– All filtrering, alla beräkningar och datakompressionen som sker i synnerven redan innan signalen ens har nått hjärnan är sådant som kräver gigantiska mängder overhead i våra digitala datorer, säger Stanley Williams.

Men han är inte ute efter att bygga en ny hjärna.

– Jag har inget intresse av att kopiera hjärnan. Jag vill lära mig av hjärnan, och använda vad jag har lärt mig för att bygga bättre datorer, säger han.

Så här jobbar DN med kvalitetsjournalistik: uppgifter som publiceras ska vara sanna och relevanta. Rykten räcker inte. Vi strävar efter förstahandskällor och att vara på plats där det händer. Trovärdighet och opartiskhet är centrala värden för vår nyhetsjournalistik. Läs mer här.
Kommentera artikeln
I samarbete med tjänsten Ifrågasätt erbjuder DN möjligheten att kommentera vissa artiklar. Håll dig till ämnet och håll en god ton. Visa respekt för andra skribenter och berörda personer i artikeln. Vi tar bort inlägg som vi bedömer är olämpliga.