mayo 1, 2021

¿Podrían los interruptores de luz tener moral?

Se está produciendo una revolución al margen de las redes informáticas, en la que los dispositivos están mejorando en la evaluación de las circunstancias, analizando los datos localmente y, por lo tanto, activando más servicios para los consumidores en lugar de depender de la nube para toda esa «inteligencia». ¿Pero podrían los interruptores de luz tener moral?

La innovación al límite está impulsada por la necesidad de un procesamiento rápido.

El cálculo debe ser confiable, seguro y sostenible para el medio ambiente. Queremos que nuestras computadoras tengan soluciones cada vez más potentes y relativamente económicas disponibles (en lugar de depender de la conectividad con un procesador central basado en servidor que distribuye comandos de información).

Está surgiendo un modelo de «lo mejor de ambos mundos» que acerca la IA y la inferencia de datos a los puntos de uso.

La inteligencia artificial y la inferencia de datos están recurriendo a la nube para el aprendizaje automático y las características transaccionales que solo la nube permite.

Los frutos de esta innovación comenzarán a hacerse más evidentes en 2021. La innovación «inteligente» producirá cosas como lavadora y secadora que reconocen comandos de voz simples; aspiradoras que aprenden a evitar obstáculos dañinos; y cerraduras e interruptores de luz que funcionan más como ayudantes inteligentes para el hogar.

Nuestras necesidades de TI llevarán a reconocer rostros, voces y gestos, sistemas de seguridad que detectan vidrios rotos por un vaso de vino caído y automóviles que responden de manera más rápida y eficiente a las condiciones emergentes de la carretera.

Pero entonces, incluso nuestra solicitud de TI requerirá más.

El desarrollo de la informática sugiere que al menos tres preguntas están «ahí afuera» cuando se trata de considerar cómo pensamos sobre la inteligencia artificial y qué puede pensar o sentir acerca de nosotros:

primero, ¿podría la IA consciente de sí misma ser más como un perro que un ser humano? Gran parte del debate sobre la inteligencia artificial se trata de la transición de la toma de decisiones algorítmicas (por compleja que sea) y la capacidad autosuficiente para hacer y responder preguntas basadas en un sentido de sí mismo.

Esto es muy diferente de la naturaleza opaca del aprendizaje profundo actual, que no permite que un procesador explique cómo terminó. Una teoría de la mente que permitiera una mente dentro de la computadora o robot capaz de analizar y justificar sus acciones podría ser más confiable y creíble, así como más eficiente.

¿Por qué la mente de la inteligencia artificial debe ser modelada en humanos?

The Edge sugiere que podemos ver surgir varios tipos o grados de inteligencia o incluso conciencia.

  • Por ejemplo: ¿por qué la IA de un asistente de hogar «inteligente» no posee las cualidades de un perro confiable o un delfín empático?
  • ¿Podrían estas cualidades no ser suficientes para proporcionar enormes beneficios a los consumidores?
  • ¿Estas cualidades no estarían más cerca de la conciencia de que algunos modelos mentales requieren que la IA sea para nosotros?
  • ¿Puede AI pensar y actuar como un amigo o vecino?

Quizás la idea de AI como Sonny en la película I, Robot, es una visión demasiado extrema, tanto cognitiva como física.

Segundo, ¿Podrían los dispositivos inventar su propio lenguaje y, por lo tanto, construir un modelo de inteligencia artificial y conciencia?

Existen numerosos ejemplos de computadoras, robots y chatbots, que crean su propio idioma y se comunican:

  • En 2017, Facebook pidió a los chatbots que negociaran entre ellos y los robots respondieron inventando su lenguaje que era incomprensible para los programadores humanos (Facebook cerró el experimento).
  • En el mismo año, Google reveló que un experimento de inteligencia artificial estaba usando su herramienta de traducción para migrar los conceptos dentro y fuera del idioma que inventó (Google permitió que el negocio continuara).
  • AI Open de Alphabet ha alentado a los robots a inventar su propio idioma a través del aprendizaje de refuerzo (piense en darle a su perro una galleta para que haga lo correcto). Alphabet finalmente construyó una lingua franca que les permitió hacer negocios más rápido y más eficientemente que antes.

La tecnología de la información entre los robots ha continuado con relevancia para sus experiencias «compartidas», al igual que el lenguaje humano.

Claude Shannon, quien quizás fue el padrino conceptual del padre semiconductor de Robert Noyce, argumentó en su teoría de la información que la información era un mecanismo para reducir la incertidumbre (en comparación con una herramienta cualitativa para comunicar contenido, per se )

¿Qué pasaría si los procesadores de Edge inventaran un lenguaje (o lenguajes) que no solo permitiera su función mejorada, sino que emulara alguna forma de conciencia distribuida?

¿Podremos traducirlo? ¿Nos preocuparemos?

Tercero, y quizás de manera más intrigante, ¿podría un interruptor de luz tener moral?

Podemos cablear un dispositivo para realizar funciones específicas y las comunicaciones a las que me referí anteriormente pueden basarse en esa plataforma, pero, en última instancia, los dispositivos inteligentes pueden probar que están «conectados» a ciertas acciones como lo somos nosotros los humanos.

Por ejemplo, considere un termostato inteligente que fue construido para detectar la temperatura ambiente y ejecutar comandos basados ​​en esos datos. Ahora piense en un usuario humano que viola esas funciones programadas o el NM compartido de entornos ambientalmente responsables.

¿El termostato se opone al aporte humano o incluso lo rechaza?

¿Podríamos crear una conciencia rudimentaria de la inteligencia artificial en la estructura a nivel de silicio de los dispositivos inteligentes que los hace físicamente incapaces de violar ciertas reglas?

Recuerdo las Tres leyes de la robótica de Isaac Asimov; El concepto de seguridad a nivel de silicio podría ser fundamental para la seguridad y la fiabilidad. Necesitamos dispositivos a los que otorguemos mayor responsabilidad y autoridad para la acción.

Explorar y responder preguntas como estas será crucial para el éxito en el mercado masivo de IA (y el ML que lo permite).

Tendremos que aplicar no solo nuestras habilidades informáticas en evolución, sino también introducir nuestra comprensión de la psicología y las ciencias sociales. A medida que nuestras máquinas se vuelven más autónomas (también llamadas «agencia»), ellas y nosotros encontraremos problemas que no esperábamos.

Por ejemplo:

  • ¿Qué condiciones llevarán a las máquinas de aprendizaje a «colgarse» o llevarlas a caminos de acción que se han caracterizado como «enfermedad» si describimos a los humanos?
  • ¿Cómo será la IA inmune a los problemas, tanto circunstanciales como intencionales (por ejemplo, Hack)?
  • ¿Podría haber nuevos regímenes de supervisión requeridos para máquinas que «se comportan mal» o incluso violan la ley?

Será increíblemente intrigante meditar sobre las preguntas planteadas por esta revolución.

Lars Reger

Lars Reger

Como vicepresidente ejecutivo y director de tecnología, Lars Reger es responsable de toda la cartera de tecnología de NXP, incluida la conducción autónoma, IoT y seguridad industrial y de consumo. Antes de unirse a NXP en 2008, Lars ocupó diversos cargos en Siemens, Infineon y Continental.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *