La prossima generazione dell’intelligenza artificiale potrebbe non nascere dal silicio. A San Francisco, una startup chiamata TBC ha appena raccolto 25 milioni di dollari per fare una cosa che suona assurda e ovvia allo stesso tempo: usare neuroni biologici veri per potenziare i modelli IA. Cellule nervose in coltura, su piastre da laboratorio, che elaborano dati visivi e li trasformano in rappresentazioni matematiche più ricche di qualsiasi algoritmo. Il risultato, dicono, raddoppia le prestazioni video dell’IA.
Ecco, detta così sembra l’esordio di uno che ha visto troppe puntate di Star Trek (che poi è vero). Ma i fondatori di The Biological Computing Company sono due neurochirurghi (Alex Ksendzovsky e Jon Pomeraniec), e il cofondatore di Neuralink Tim Gardner ha commentato la cosa con un certo entusiasmo. Insomma: non è un paper accademico rimasto in un cassetto. È un prodotto che sta uscendo dal laboratorio. Ed io l’ho spulciato un po’ per farmi un’idea.
Come funzionano i neuroni biologici dentro l’IA
Il meccanismo è meno mistico di quanto sembri: TBC coltiva neuroni biologici su piccole piastre (grandi come un grano di sale grosso), ciascuna con circa 100.000 cellule e 4.096 elettrodi. I dati visivi (immagini, video) vengono convertiti in impulsi elettrici e inviati ai neuroni biologici, che li elaborano come farebbero nel cervello: osservano, interagiscono, formano pattern. L’attività neurale risultante viene poi decodificata e tradotta in modelli matematici.
Un po’ come chiedere a un traduttore madrelingua di riscrivere un testo che Google Translate aveva reso appena sufficiente: il senso c’era, ma la profondità no. Questi modelli matematici, secondo TBC, catturano dinamiche spaziali e temporali che le reti neurali artificiali semplicemente non vedono. “Se un’immagine vale mille parole, la rappresentazione neurale di un’immagine ne vale un milione”, ha detto Ksendzovsky a Forbes.
Il prodotto concreto che ne esce è un “adapter” software: un modulo che si innesta nei modelli IA esistenti come uno strato aggiuntivo di elaborazione. TBC sostiene che questi adapter raddoppiano la durata dei video generati dall’IA prima che inizino a degradarsi, pur pesando meno dell’1% del modello su cui si installano. E senza bisogno di un costoso ri-addestramento. Se fosse vero (il condizionale è d’obbligo a questo stadio), sarebbe un guadagno enorme a costo quasi nullo.
I numeri di TBC in sintesi:
- Fondi raccolti: 25 milioni di dollari
- Investitori: Primary Ventures (lead), Builders VC, E1 Ventures, Refactor Capital e Tusk Ventures
- Neuroni per piastra: circa 100.000, su 4.096 elettrodi
- Peso adapter: meno dell’1% del modello IA ospitante
- Sede: Mission Bay, San Francisco
I neuroni biologici tra concorrenza e dubbi legittimi
TBC non è sola in questa corsa. L’australiana Cortical Labs (ne abbiamo parlato un po’ di tempo fa) ha già lanciato il CL1, il primo biocomputer commerciale con neuroni biologici umani su silicio. La svizzera FinalSpark offre accesso remoto a organoidi cerebrali per la ricerca. E poi c’è il colosso silenzioso: IBM lavora da anni su hardware neuromorfico ispirato all’architettura del cervello, e Nvidia ha appena acquisito Groq (chip IA a basso consumo) per 20 miliardi di dollari.
Il contesto lo conoscete: l’intelligenza artificiale ha un problema di sostenibilità energetica che non si risolve certo aggiungendo altri data center. I modelli diventano più grandi, i costi di addestramento più assurdi, e il consumo energetico cresce in modo esponenziale. Il cervello umano, con i suoi 86 miliardi di neuroni, consuma appena 20 watt. Più o meno quanto una lampadina. Un singolo ciclo di addestramento di GPT-4 consuma energia sufficiente per alimentare migliaia di case per un anno. La biologia, in termini di efficienza, ci batte di miliardi di volte.
Ma (e qui arriva la parte scomoda) i neuroni biologici sono fragili, difficili da scalare e richiedono cure costanti. Non puoi spegnere un server biologico e riaccenderlo lunedì. Le cellule muoiono, le colture si degradano, ogni piastra è diversa dall’altra. TBC punta tutto sulla capacità di astrarre il comportamento dei neuroni in software, non di costruire data center biologici: il piano a lungo termine (10-20 anni, dicono loro) prevede reti neurali biologiche integrate nei circuiti di calcolo in tempo reale. Per ora, siamo alla fase in cui l’idea funziona in laboratorio e qualcuno ci ha messo 25 milioni sopra.
Approfondisci
Il biocomputing ti incuriosisce? Leggi anche come funziona il CL1, il primo biocomputer commerciale di Cortical Labs. Se vuoi capire come le cellule cerebrali hanno imparato a giocare a Pong (sì, davvero), è un buon punto di partenza. Oppure scopri DeepSouth, il supercomputer neuromorfico che emula il cervello su scala industriale.
Pomeraniec, il cofondatore di TBC, dice una cosa che mi è rimasta in testa:
“Stiamo comunicando con il miglior computer mai costruito. È stato progettato, evoluto e perfezionato dalla natura.”
Ha ragione, probabilmente. Il cervello è una macchina straordinaria. Il problema è che nessuno ha ancora trovato il manuale d’istruzioni, e i neuroni biologici in una piastra non sono un cervello: sono un frammento di qualcosa che non capiamo del tutto, messo al servizio di qualcosa che capiamo ancora meno.
Stiamo provando a guidare un’auto di Formula 1 dopo aver letto il libretto di istruzioni di una FIAT Punto.
Ma è esattamente così che iniziano le cose interessanti.