Datorn som tänker som en hjärna – ”hjärnkapacitet som en mullvadsråtta”



Neuromofriska beräkningar kan göra ai-system hundratals gånger snabbare. Nu presenterar Intel sin första serverlösning, som har lika många neuroner som ett mindre däggdjur.

Genom att designa chip som efterliknar den mänskliga hjärnan går det att öka både prestandan och energieffektiviteten i ai-baserade system, enligt chipjätten Intel. Arkitekturen som chipen använder kallas för neuromorfisk.

Intel har i dagarna presenterat en intressant tillämpning för sina neuromofriska chip. För att lära upp en ai-modell som bygger på djup maskininlärning krävs i regel stora datamängder. Men forskare vid Intel och Cornell University har lyckats skapa stor träffsäkerhet med hjälp av en enda datapunkt.

Deras experiment handlar om att använda den neuromorfiska processorn Loihi, som utvecklats av Intel, för att identifiera skadliga dofter. Efter att ha fått analysera ett enda doftprov av exempelvis aceton, ammoniak eller metanol kunde chipet med 92 procents träffsäkerhet identifiera samma doft igen. Och systemet kunde lära sig känna igen flera dofter utan att träffsäkerheten minskade.

Läs mer: Superdatorn Summit i kampen mot coronaviruset

En modell som tränats med hjälp av djup maskininlärning kan visserligen nå ännu högre träffsäkerhet, men kräver då flera tusen datapunkter innan systemet lärt sig att korrekt identifiera doften.

Loihi presenterades för drygt två år sedan och sedan dess har forskare från över 90 företag och universitet börjat experimentera med plattformen. GE, Airbus, Hitatchi och Accenture har alla varit intresserade.

På Loihi-chipet finns kretsar som är byggda för att efterlikna 130 000 neuroner med 128 miljoner synapser. Intels forskare beskriver det som en syntetisk hjärna på insektsnivå.

Neuromorfisk serverlösning

Nu kommer nästa steg. Under onsdagen presenterade Intel en serverlösning, dubbad Pohoiki Springs, som består av 768 Loihi-chip inbäddade i ett 5U-rack. Intel räknar här till 100 miljoner neuroner och en elförbrukning på 500 watt.

– Det är beräkningskapaciteten hos ett litet däggdjur, som en mullvadsråtta, säger Mike Davies som är chef för Intels neuromorfiska forskning under ett pressevent.

Han säger att utvecklingen av neuromorfiska chip fortfarande är på ett tidigt stadium. I takt med att tekniken mognar och chipen miniatyriseras mer ser han framför sig att samma neuromorfiska beräkningskraft kan rymmas i en liten enhet som en mobiltelefon eller bärbar dator.

Läs mer: MIT-forskare har byggt en fungerande processor av kolnanorör

Intels forskare menar att tekniken har ofantlig potential att snabba upp vissa typer av beräkningar. Som exempel nämns optimeringsproblem eller att hitta den snabbaste rutten mellan noder i ett punktmoln.

De första praktiska tillämpningsområdena ser Mike Davies inom så kallad edge computing, beräkningar som görs i anslutning till de sensorer som samlar in data snarare än i datacenter långt borta. Där är korta svarstider, snabba beräkningar och låg energiförbrukning viktiga faktorer.

Potentiellt sätt skulle en neuromorfisk dator kunna leverera resultat hundratals gånger snabbare än dagens maskininlärningsmodeller, och till tusendelar av samma energiåtgång, enligt Intel.

De neuromorfiska chipen är än så länge bara tillgängliga för företag och organisationer som är en del av Intels forskningsprogram på området.





Source link