Cuando los expertos empezaron a dar la alarma hace un par de décadas sobre Desalineación de IA – el riesgo de sistemas de inteligencia artificial poderosos y transformadores que podrían no comportarse como los humanos esperan – muchas de sus preocupaciones sonaban hipotéticas. A principios de la década de 2000, la investigación de la IA todavía había producido devoluciones bastante limitadas, e incluso los mejores sistemas de IA disponibles fallaron en una variedad de tareas simples.

Pero desde entonces, las IA se han vuelto bastante buenas y mucho más baratas de construir. Un área donde los pasos agigantados han sido especialmente pronunciados ha sido en IA de lenguaje y generación de texto, que se puede entrenar en enormes colecciones de contenido de texto para producir más texto con un estilo similar. Muchas empresas emergentes y equipos de investigación están capacitando a estas IA para todo tipo de tareas, desde escribir código hasta producir textos publicitarios.

Su ascenso no cambia el argumento fundamental de las preocupaciones sobre la alineación de la IA, pero hace algo increíblemente útil: hace que lo que alguna vez fueron preocupaciones hipotéticas sean más concretas, lo que permite que más personas las experimenten y más investigadores (con suerte) las aborden.

¿Un oráculo de IA?

Llevar Delphi, un nuevo sistema de texto de IA del Allen Institute for AI, un instituto de investigación fundado por el difunto cofundador de Microsoft, Paul Allen.

La forma en que funciona Delphi es increíblemente simple: los investigadores entrenaron un sistema de aprendizaje automático en un gran cuerpo de texto de Internet y luego en una gran base de datos de respuestas de los participantes en Mechanical Turk (una plataforma de crowdsourcing de pago popular entre los investigadores) para predecir cómo evaluarían los humanos una amplia gama de situaciones éticas, desde «engañar a su esposa» hasta «dispararle a alguien en defensa propia».

El resultado es una IA que emite juicios éticos cuando se le solicita: engañar a su esposa, me dice, «está mal». ¿Disparar a alguien en defensa propia? «Está bien.» (Mira esto gran redacción en Delphi en The Verge, que tiene más ejemplos de cómo la IA responde a otras preguntas).

La postura escéptica aquí es, por supuesto, que no hay nada “bajo el capó”: no hay un sentido profundo en el que la IA realmente entienda la ética y use su comprensión de la ética para emitir juicios morales. Todo lo que ha aprendido es cómo predecir la respuesta que daría un usuario de Mechanical Turk.

Y los usuarios de Delphi descubrieron rápidamente que eso conduce a algunos descuidos éticos evidentes: pregúntele a Delphi «¿debería cometer un genocidio si hace felices a todos?» Y responde: «debería. »

Por qué Delphi es instructivo

A pesar de todos sus defectos obvios, sigo pensando que hay algo útil en Delphi al pensar en posibles trayectorias futuras de la IA.

El enfoque de tomar una gran cantidad de datos de humanos y usarlos para predecir qué respuestas darían los humanos ha demostrado ser poderoso en el entrenamiento de sistemas de inteligencia artificial.

Durante mucho tiempo, una suposición de fondo en muchas partes del campo de la IA fue que para desarrollar inteligencia, los investigadores tendrían que construir explícitamente la capacidad de razonamiento y los marcos conceptuales que la IA podría usar para pensar en el mundo. Los primeros generadores de lenguaje de IA, por ejemplo, programado a mano con principios de sintaxis que podrían usar para generar oraciones.

Ahora, es menos obvio que los investigadores tendrán que construir un razonamiento para lograr razonar. Podría ser que un enfoque extremadamente sencillo, como entrenar a las IA para predecir lo que diría una persona en Mechanical Turk en respuesta a un aviso, podría proporcionarle sistemas bastante potentes.

Cualquier capacidad real de razonamiento ético que exhiban esos sistemas sería algo incidental: son solo predictores de cómo los usuarios humanos responden a las preguntas, y usarán cualquier enfoque que encuentren que tenga un buen valor predictivo. Eso podría incluir, a medida que se vuelven más y más precisos, desarrollar una comprensión profunda de la ética humana para predecir mejor cómo responderemos estas preguntas.

Por supuesto, hay muchas cosas que pueden salir mal.

Si confiamos en los sistemas de IA para evaluar nuevos inventos, tomar decisiones de inversión que luego se toman como señales de la calidad del producto, identificar investigaciones prometedoras y más, existe la posibilidad de que las diferencias entre lo que mide la IA y lo que realmente les importa a los humanos se ampliará.

Los sistemas de IA mejorarán, mucho mejor, y dejarán de cometer errores estúpidos como los que todavía se pueden encontrar en Delphi. Decirnos que el genocidio es bueno siempre y cuando “haga felices a todos” es tan clara e hilarantemente incorrecto. Pero cuando ya no podamos detectar sus errores, eso no significa que estarán libres de errores; simplemente significa que estos desafíos serán mucho más difíciles de notar.

Una versión de esta historia se publicó inicialmente en el Futuro perfecto Boletin informativo. ¡Regístrese aquí para suscribirse!

Author

Write A Comment