agosto 14, 2022

Las interfaces cerebro-computadora están progresando mucho este año

El Las Cumbres de Transform Technology comienzan el 13 de octubre con Low-Code / Sin Code: Habilitación de la agilidad empresarial. ¡Suscríbase ahora!


Ocho meses después, 2021 ya se ha convertido en un año récord en la financiación de la interfaz cerebro-computadora (BCI), triplicando los $ 97 millones recaudados en 2019.Las BCI traducen las ondas cerebrales humanas en comandos comprensibles para las máquinas, lo que permite a las personas usar una computadora, por ejemplo , con su mente. En las últimas dos semanas, la compañía BCI de Elon Musk, Neuralink, anunció un préstamo de la Serie C de 205 millones de dólares con Paradromics, otra compañía de BCI, que anunció una ronda de 20 millones de dólares unos días antes.

Casi al mismo tiempo, el competidor de Neuralink Synchron anunció que había recibido una luz verde innovadora de la FDA para realizar ensayos clínicos de su producto estrella, el Stentrode, con pacientes humanos. Incluso antes de esta aprobación, el Synchron Stentrode ya se estaba sometiendo a ensayos clínicos en Australia, y cuatro pacientes habían recibido el implante.

(Arriba: Stentrode Synchron en funcionamiento).

(Arriba: demostración de Neurlink, abril de 2021.)

Sin embargo, muchos se muestran escépticos sobre el progreso de Neuralink y la afirmación de que BCI está a la vuelta de la esquina. Y aunque la definición de BCI y sus aplicaciones puede ser ambigua, sugeriría una perspectiva diferente que explica cómo los descubrimientos en otro campo están haciendo que la promesa de BCI sea mucho más tangible que antes.

BCI en su esencia se trata de ampliar nuestras capacidades humanas o recuperar las perdidas, como ocurre con las personas paralizadas.

Las empresas de este espacio lo consiguen con dos formas de BCI: invasiva y no invasiva. En ambos casos, la actividad cerebral se registra para traducir las señales neuronales en comandos, como mover objetos con un brazo robótico, escribir la mente o hablar a través del pensamiento. El motor detrás de estas poderosas traducciones es el aprendizaje automático, que reconoce patrones a partir de datos cerebrales y es capaz de generalizar esos patrones en muchos cerebros humanos.

Reconocimiento del modelo y aprendizaje de la transferencia

La capacidad de traducir la actividad cerebral en acción se logró hace décadas. El principal desafío para las empresas privadas en la actualidad es construir productos comerciales para las masas. que pueden encontrar señales comunes entre diferentes cerebros que resultan en acciones similares, como un patrón de ondas cerebrales que significa «mover mi brazo derecho».

Eso no significa que el motor deba poder hacer esto sin ningún ajuste. En la demostración de MindPong de Neuralink anterior, el mono rhesus pasó por unos minutos de calibración antes de que el modelo se ajustara con los patrones de actividad neuronal de su cerebro. Podemos esperar que esta rutina también ocurra con otras tareas, aunque en algún momento el motor puede ser lo suficientemente potente como para predecir el comando correcto sin ningún ajuste fino, lo que luego se denomina aprendizaje de disparo cero.

Afortunadamente, la investigación de la inteligencia artificial en la detección de patrones ha logrado un gran progreso, particularmente en los dominios de la visión, el audio y el texto, generando técnicas y arquitecturas más sólidas para permitir la generalización de las aplicaciones de inteligencia artificial.

La carta revolucionaria Atención es todo lo que necesitas inspiró muchos otros artículos interesantes con su arquitectura ‘Transformer’ sugerida. Su lanzamiento a finales de 2017 dio lugar a múltiples descubrimientos en dominios y modalidades, como ViT de Google, Perceiver multimodal de DeepMind y wav2vec 2.0 de Facebook. Cada uno logró resultados de vanguardia en sus respectivos puntos de referencia, superando las técnicas anteriores para resolver la tarea en cuestión.

Una característica clave de la arquitectura Transformer son sus capacidades de aprendizaje de cero y pocos golpes, que hacen posible la generalización de los modelos de IA.

Muchos datos

Los modelos de aprendizaje profundo de vanguardia, como los destacados anteriormente por Google, DeepMind y Facebook, requieren grandes cantidades de datos. Como referencia, el conocido modelo GPT-3 de OpenAI, un transformador capaz de generar lenguaje similar al humano, se entrenó con 45 GB de texto, incluidos los conjuntos de datos Common Crawl, WebText2 y Wikipedia.

Los datos en línea son un catalizador importante que alimenta la reciente explosión de aplicaciones de lenguaje natural generadas por computadora. Por supuesto, los datos de EEG (electroencefalografía) no están tan fácilmente disponibles como las páginas de Wikipedia, pero esto está comenzando a cambiar.

Los institutos de investigación de todo el mundo están publicando cada vez más conjuntos de datos relacionados con BCI, lo que permite a los investigadores aprovechar el conocimiento de los demás. Por ejemplo, los investigadores de la Universidad de Toronto utilizaron el conjunto de datos EEG Corpus (TUEG) del Temple University Hospital, que se compone de registros clínicos de más de 10,000 personas. En su investigación, utilizaron un enfoque de capacitación inspirado en el transformador de lenguaje natural BERT de Google para desarrollar un modelo previamente entrenado capaz de modelar secuencias de EEG sin procesar grabadas con varios hardware y en varios temas y actividades posteriores. Luego muestran cómo un enfoque de este tipo puede producir representaciones adecuadas para grandes cantidades de datos EEF sin etiquetar y aplicaciones BCI posteriores.

Los datos recopilados en los laboratorios de investigación son un gran comienzo, pero puede que no sean suficientes para las aplicaciones del mundo real. Para que BCI se acelere, necesitaremos que surjan productos comerciales que las personas puedan utilizar en su vida diaria. Con proyectos como OpenBCI que ponen a disposición hardware asequible y otras empresas comerciales lanzan sus productos no invasivos al público, los datos pronto pueden volverse más accesibles. Dos ejemplos incluyen NextMind, que lanzó un kit de desarrollo el año pasado para desarrolladores que desean escribir su propio código en el hardware y las API de NextMind, y Kernel, que planea lanzar su casco de grabación cerebral no invasiva. Flujo pronto.

(Arriba: dispositivo Kernel Flow).

Hardware y computación perimetral

Las aplicaciones BCI tienen la restricción de ejecutarse en tiempo real, como cuando se escribe o se reproduce. Tener más de un segundo de latencia de pensamiento a acción crearía una experiencia de usuario inaceptable, ya que la interacción sería lenta e inconsistente (piense en jugar a un juego de disparos en primera persona con una latencia de un segundo).

Enviar datos EEG sin procesar a un servidor de inferencia remoto y luego decodificarlos en una acción concreta y devolver la respuesta al dispositivo BCI introduciría tal latencia. Además, el envío de datos confidenciales, como la actividad cerebral, presenta problemas de privacidad.

Los avances recientes en el desarrollo de chips de IA pueden resolver estos problemas. Gigantes como Nvidia y Google están apostando fuerte por construir chips más pequeños y potentes optimizados para la inferencia de borde. Esto, a su vez, puede permitir que los dispositivos BCI funcionen sin conexión y evitar la necesidad de enviar datos, eliminando los problemas de latencia asociados con ellos.

Pensamientos finales

El cerebro humano no ha evolucionado mucho durante miles de años, mientras que el mundo que nos rodea ha cambiado enormemente solo en la última década. La humanidad ha llegado a un punto de inflexión en el que debe mejorar sus capacidades cerebrales para mantenerse al día con la innovación tecnológica que nos rodea.

Es posible que el enfoque actual de reducir la actividad cerebral a señales eléctricas sea incorrecto y que podamos experimentar un invierno BCI si Kernel y NextMind no producen aplicaciones comerciales prometedoras. Pero el beneficio potencial es demasiado consecuente para ignorarlo: desde ayudar a las personas paralizadas que ya han renunciado a la idea de llevar una vida normal, hasta mejorar nuestras experiencias diarias.

BCI está todavía en su infancia, con muchos desafíos que resolver y obstáculos que superar. Sin embargo, para algunos debería ser lo suficientemente emocionante dejarlo todo y comenzar a construir.

Sahar Mor tiene 13 años de experiencia en ingeniería y gestión de productos centrados en productos de IA. El es el fundador de AirPaper, una API de inteligencia de documentos basada en GPT-3. Anteriormente, fundó Product Manager en Zeitgold, una empresa de software de contabilidad de inteligencia artificial B2B, y Levity.ai, una plataforma AutoML sin código. También trabajó como director técnico en empresas emergentes y en la unidad de inteligencia de élite israelí, 8200.

VentureBeat

La misión de VentureBeat es ser una plaza urbana digital para que los responsables de la toma de decisiones técnicas obtengan información sobre la tecnología y las transacciones transformadoras. Nuestro sitio proporciona información esencial sobre tecnologías y estrategias de datos para guiarlo en el liderazgo de sus organizaciones. Te invitamos a convertirte en miembro de nuestra comunidad, para acceder a:

  • información actualizada sobre temas de su interés
  • nuestros boletines
  • contenido privado líder en el pensamiento y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Para saber mas
  • funciones de red y más

Hágase miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada.