Guarda un film attraverso gli occhi di un topo: gli scienziati usano l’intelligenza artificiale per ricostruire i suoi segnali cerebrali

Guarda un film attraverso gli occhi di un topo: gli scienziati usano l’intelligenza artificiale per ricostruire i suoi segnali cerebrali

Hai avuto difficoltà a descrivere al tuo amico qualcosa che hai visto in TV ieri sera?

Presto potresti essere in grado di visualizzare le tue immagini mentali sul grande schermo, come hanno fatto gli scienziati con i topi.

Un team dell’École Polytechnique Fédérale de Lausanne (EPFL) ha sviluppato uno strumento di intelligenza artificiale (AI) in grado di interpretare i segnali cerebrali dei roditori.

L’algoritmo, chiamato CEBRA, è stato addestrato per mappare l’attività neurale su frame specifici nei video, in modo da poter quindi prevedere e ricostruire ciò che il topo stava guardando.

La notizia arriva poco dopo che i ricercatori dell’Università del Texas ad Austin hanno utilizzato l’intelligenza artificiale per convertire i pensieri delle persone in testo in tempo reale.

Un team dell’École Polytechnique Fédérale de Lausanne (EPFL) ha sviluppato uno strumento di intelligenza artificiale (AI) in grado di interpretare i segnali cerebrali dei roditori. Il film originale è girato in alto, mentre il film decodificato è girato in basso

L'algoritmo, chiamato CEBRA, è stato addestrato per mappare l'attività neurale su frame specifici nei video, in modo da poter quindi prevedere e ricostruire ciò che il topo stava guardando.

L’algoritmo, chiamato CEBRA, è stato addestrato per mappare l’attività neurale su frame specifici nei video, in modo da poter quindi prevedere e ricostruire ciò che il topo stava guardando.

“In futuro, poiché CEBRA non si limita alla visione, riteniamo che sia un potente strumento per le interfacce cervello-macchina,” ha detto a MailOnline il dott. Mackenzie Mathis, ricercatore capo dello studio.

Cos’è Cipra?

CEBRA è un algoritmo di apprendimento automatico, un programma per computer che può migliorare le sue prestazioni su un’attività imparando dai dati.

I film guardati dai topi e la loro attività cerebrale sono stati forniti in tempo reale.

CEBRA ha appreso quali segnali cerebrali erano associati alle strutture utilizzando questi dati.

Potrebbe quindi ricevere un’attività cerebrale nuova, mai vista prima, e quindi essere in grado di prevedere cosa stava guardando il topo in quel momento.

I ricercatori sono stati in grado di convertire queste informazioni in un filmato generato da CEBRA, che può essere paragonato all’originale.

Ad esempio, potrebbe essere utilizzato per controllare i cursori del computer nei pazienti che non possono muoversi, oppure potrebbe essere utilizzato per aiutare a fornire sensazioni visive per i non vedenti se combinato con la stimolazione cerebrale in tempo reale.

READ  Cosa possono fare i giocatori con la calcite in Minecraft?

“Certo, non posso prevedere questo e ci vorranno anni, ma queste sono le aree per le quali sono felice di vedere che le persone usano CEBRA.”

Per uno studio pubblicato oggi in naturaI ricercatori hanno addestrato CEBRA utilizzando i film che i topi guardavano e la loro attività cerebrale in tempo reale.

Alcune attività sono state misurate direttamente utilizzando sonde elettrodi inserite nell’area della corteccia visiva del cervello.

Il resto è stato raccolto utilizzando sensori di luce su topi transgenici i cui neuroni diventano verdi quando vengono attivati.

Utilizzando questi dati, CEBRA ha identificato i segnali cerebrali associati ai fotogrammi di un film specifico.

Gli è stata quindi data una nuova attività cerebrale mai vista prima da un topo che guardava un esempio leggermente diverso di un filmato.

Da questo, è stato in grado di prevedere quale fotogramma stava guardando il mouse in tempo reale e i ricercatori hanno trasformato quei dati nel proprio filmato.

“Non proiettiamo ogni pixel, proiettiamo il fotogramma”, ha detto il dott. Mattis a MailOnline.

Il livello di possibilità sarà 1/900, quindi pensiamo che una precisione superiore al 95 percento sia molto eccitante. Ma questa decodifica è qualcosa che intendiamo fare dopo.

In un video di esempio, si può vedere il topo mentre guarda un filmato in bianco e nero degli anni ’60 di un uomo che corre verso un’auto e ne apre il bagagliaio.

Uno schermo separato mostra ciò che CEBRA pensa che il mouse stia guardando, che è un video quasi identico, anche se più sfocato.

L’algoritmo è in grado di farlo utilizzando i dati di appena l’uno percento dei neuroni nella corteccia visiva di un topo, che equivale a circa 0,5 milioni di neuroni.

“Volevamo mostrare quanti pochi dati – sia in termini di filmati che di dati neurologici – possiamo usare”, ha detto il dottor Mathis a MailOnline.

Ciò lo rende più realistico per le future applicazioni cliniche.

In particolare, l’algoritmo può essere eseguito in tempo reale, quindi il modello impiega meno di 1 secondo per prevedere l’intero video.

I ricercatori affermano che CEBRA non si limita alla semplice interpretazione delle informazioni visive dai dati cerebrali.

Può anche essere utilizzato per prevedere i movimenti del braccio nei primati e per determinare dove si trova un topo nel suo recinto mentre corre liberamente.

Il dottor Mathis ha detto:[CEBRA] Potrebbe anche darci un’idea di come il cervello elabora le informazioni e potrebbe essere una piattaforma per scoprire nuovi principi nelle neuroscienze integrando i dati tra animali e persino specie.

I ricercatori affermano che CEBRA non si limita alla semplice interpretazione delle informazioni visive dai dati cerebrali.  Può anche usarlo per prevedere i movimenti del braccio nei primati, individuando un topo nel suo recinto mentre gli corre intorno liberamente.

I ricercatori affermano che CEBRA non si limita alla semplice interpretazione delle informazioni visive dai dati cerebrali. Può anche usarlo per prevedere i movimenti del braccio nei primati, individuando un topo nel suo recinto mentre gli corre intorno liberamente.

“Le potenziali applicazioni cliniche sono entusiasmanti”.

Una tecnica simile è stata svelata il mese scorso da un team dell’Università di Osaka, che opera sui dati del cervello umano.

L’algoritmo basato sull’intelligenza artificiale ha ricostruito circa 1.000 immagini, tra cui un orsacchiotto e un aeroplano, dalle scansioni cerebrali con una precisione dell’80%.

Ho utilizzato il famoso modello di diffusione stabile, incluso in DALL-E 2 di OpenAI, che può generare qualsiasi immagine in base all’input di testo.

I ricercatori hanno mostrato ai partecipanti set individuali di immagini e scansioni di risonanza magnetica funzionale (fMRI), che l’IA ha poi decodificato.

Allo stesso modo, proprio questa settimana, gli scienziati dell’Università del Texas ad Austin hanno svelato una tecnologia che converte l’attività cerebrale di una persona in testo.

READ  I nuovi token di sicurezza Yubico ti consentono di utilizzare le impronte digitali anziché le password

Tre partecipanti allo studio hanno ascoltato le storie mentre giacevano in una macchina per la risonanza magnetica, mentre il “decodificatore” dell’IA analizzava la loro attività cerebrale.

È stato quindi chiesto loro di leggere una storia diversa o di inventarne una propria e il decodificatore poteva quindi convertire i dati della risonanza magnetica in testo in tempo reale.

Questo hack solleva preoccupazioni sulla “privacy mentale” perché potrebbe essere il primo passo per poter intercettare i pensieri di altre persone.

In che modo l’intelligenza artificiale impara a usare le reti neurali?

I sistemi di intelligenza artificiale si basano su reti neurali artificiali (ANN), che tentano di imitare il modo in cui funziona il cervello per apprendere.

Le reti neurali artificiali possono essere addestrate per riconoscere i modelli nelle informazioni, inclusi discorsi, dati di testo o immagini visive, e sono la base per un gran numero di progressi nell’intelligenza artificiale negli ultimi anni.

L’intelligenza artificiale tradizionale utilizza l’input per “insegnare” a un algoritmo su un particolare argomento fornendogli enormi quantità di informazioni.

I sistemi di intelligenza artificiale si basano su reti neurali artificiali (ANN), che tentano di imitare il modo in cui funziona il cervello per apprendere.  Le reti neurali artificiali possono essere addestrate per riconoscere i modelli nelle informazioni, inclusi discorsi, dati di testo o immagini visive

I sistemi di intelligenza artificiale si basano su reti neurali artificiali (ANN), che tentano di imitare il modo in cui funziona il cervello per apprendere. Le reti neurali artificiali possono essere addestrate per riconoscere i modelli nelle informazioni, inclusi discorsi, dati di testo o immagini visive

Le applicazioni pratiche includono i servizi di traduzione linguistica di Google, il software di riconoscimento facciale di Facebook e i filtri live di modifica delle foto di Snapchat.

Il processo di inserimento di questi dati può richiedere molto tempo e limitato a un tipo di conoscenza.

Una nuova generazione di ANN chiamata Adversarial Neural Networks mette l’una contro l’altra l’intelligenza di due robot IA, consentendo loro di imparare l’uno dall’altro.

Questo approccio è progettato per accelerare il processo di apprendimento, nonché migliorare i risultati generati dai sistemi di intelligenza artificiale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *