Los nuevos chatbots podrían cambiar el mundo.  ¿Puedes confiar en ellos?
HogarHogar > Blog > Los nuevos chatbots podrían cambiar el mundo. ¿Puedes confiar en ellos?

Los nuevos chatbots podrían cambiar el mundo. ¿Puedes confiar en ellos?

Aug 21, 2023

Anuncio

Apoyado por

Siri, la Búsqueda de Google, el marketing en línea y la tarea de su hijo nunca volverán a ser lo mismo. Luego está el problema de la desinformación.

Envíale una historia a cualquier amigo

Como suscriptor, tienes 10 artículos de regalo para dar cada mes. Cualquiera puede leer lo que compartes.

Por Cade Metz

Cade Metz escribió este artículo basado en meses de conversaciones con los científicos que construyen chatbots y las personas que los usan.

Este mes, Jeremy Howard, un investigador de inteligencia artificial, presentó un chatbot en línea llamado ChatGPT a su hija de 7 años. Había sido lanzado unos días antes por OpenAI, uno de los laboratorios de IA más ambiciosos del mundo.

Él le dijo que le preguntara al chatbot experimental lo que se le ocurriera. Preguntó para qué servía la trigonometría, de dónde procedían los agujeros negros y por qué las gallinas incubaban sus huevos. Cada vez, respondió en prosa clara y bien puntuada. Cuando pidió un programa de computadora que pudiera predecir la trayectoria de una pelota lanzada por el aire, también se lo dio.

En los días siguientes, el Sr. Howard, un científico de datos y profesor cuyo trabajo inspiró la creación de ChatGPT y tecnologías similares, llegó a ver el chatbot como un nuevo tipo de tutor personal. Podría enseñarle a su hija matemáticas, ciencias e inglés, sin mencionar algunas otras lecciones importantes. El principal de ellos: No creas todo lo que te dicen.

"Es emocionante verla aprender así", dijo. "Pero también le dije: no confíes en todo lo que te da. Puede cometer errores".

OpenAI se encuentra entre las muchas empresas, laboratorios académicos e investigadores independientes que trabajan para crear chatbots más avanzados. Estos sistemas no pueden chatear exactamente como un humano, pero a menudo lo parecen. También pueden recuperar y reempaquetar información a una velocidad que los humanos nunca podrían. Se pueden considerar como asistentes digitales, como Siri o Alexa, que son mejores para comprender lo que está buscando y dárselo.

Después del lanzamiento de ChatGPT, que ha sido utilizado por más de un millón de personas, muchos expertos creen que estos nuevos chatbots están preparados para reinventar o incluso reemplazar los motores de búsqueda de Internet como Google y Bing.

Pueden ofrecer información en oraciones cerradas, en lugar de largas listas de enlaces azules. Explican conceptos de manera que las personas puedan entender. Y pueden entregar hechos, al mismo tiempo que generan planes de negocios, temas de trabajos y otras ideas nuevas desde cero.

"Ahora tiene una computadora que puede responder cualquier pregunta de una manera que tenga sentido para un ser humano", dijo Aaron Levie, director ejecutivo de Box, una empresa de Silicon Valley, y uno de los muchos ejecutivos que exploran las formas en que estos chatbots cambiarán el panorama tecnológico. "Puede extrapolar y tomar ideas de diferentes contextos y fusionarlas".

Los nuevos chatbots hacen esto con lo que parece ser una total confianza. Pero no siempre dicen la verdad. A veces, incluso fallan en la aritmética simple. Mezclan la realidad con la ficción. Y a medida que continúan mejorando, la gente podría usarlos para generar y difundir falsedades.

Google creó recientemente un sistema específicamente para la conversación, llamado LaMDA, o modelo de lenguaje para aplicaciones de diálogo. Esta primavera, un ingeniero de Google afirmó que era inteligente. No lo fue, pero cautivó la imaginación del público.

Aaron Margolis, un científico de datos en Arlington, Virginia, se encontraba entre el número limitado de personas ajenas a Google a las que se les permitió usar LaMDA a través de una aplicación experimental de Google, AI Test Kitchen. Estaba constantemente asombrado por su talento para la conversación abierta. Lo mantuvo entretenido. Pero advirtió que podría ser un poco fabulista, como era de esperar de un sistema entrenado a partir de grandes cantidades de información publicada en Internet.

"Lo que te da es como una película de Aaron Sorkin", dijo. Sorkin escribió "La red social", una película a menudo criticada por exagerar la verdad sobre el origen de Facebook. "Partes de esto serán verdad, y partes no serán verdad".

Recientemente le pidió a LaMDA y ChatGPT que hablaran con él como si fuera Mark Twain. Cuando le preguntó a LaMDA, pronto describió una reunión entre Twain y Levi Strauss, y dijo que el escritor había trabajado para el magnate de los jeans mientras vivía en San Francisco a mediados del siglo XIX. Parecía cierto. Pero no era. Twain y Strauss vivieron en San Francisco al mismo tiempo, pero nunca trabajaron juntos.

Los científicos llaman a ese problema "alucinación". Al igual que un buen narrador, los chatbots tienen una forma de tomar lo que han aprendido y transformarlo en algo nuevo, sin importar si es cierto.

LaMDA es lo que los investigadores de inteligencia artificial llaman una red neuronal, un sistema matemático modelado libremente en la red de neuronas en el cerebro. Esta es la misma tecnología que traduce entre francés e inglés en servicios como Google Translate e identifica a los peatones mientras los autos autónomos navegan por las calles de la ciudad.

Una red neuronal aprende habilidades mediante el análisis de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.

Hace cinco años, los investigadores de Google y laboratorios como OpenAI comenzaron a diseñar redes neuronales que analizaban enormes cantidades de texto digital, incluidos libros, artículos de Wikipedia, noticias y registros de chat en línea. Los científicos los llaman "modelos de lenguaje grande". Al identificar miles de millones de patrones distintos en la forma en que las personas conectan palabras, números y símbolos, estos sistemas aprendieron a generar texto por sí mismos.

Su capacidad para generar lenguaje sorprendió a muchos investigadores en el campo, incluidos muchos de los investigadores que los construyeron. La tecnología podría imitar lo que la gente había escrito y combinar conceptos dispares. Podrías pedirle que escriba una escena de "Seinfeld" en la que Jerry aprenda una técnica matemática esotérica llamada algoritmo de clasificación de burbujas, y así será.

Con ChatGPT, OpenAI ha trabajado para refinar la tecnología. No mantiene una conversación fluida tan bien como LaMDA de Google. Fue diseñado para funcionar más como Siri, Alexa y otros asistentes digitales. Al igual que LaMDA, ChatGPT se entrenó en un mar de texto digital extraído de Internet.

A medida que las personas probaban el sistema, les pedía que calificaran sus respuestas. ¿Fueron convincentes? ¿Fueron útiles? ¿Fueron veraces? Luego, a través de una técnica llamada aprendizaje de refuerzo, usó las calificaciones para perfeccionar el sistema y definir más cuidadosamente lo que haría y lo que no haría.

"Esto nos permite llegar al punto en que el modelo puede interactuar contigo y admitir cuando está mal", dijo Mira Murati, directora de tecnología de OpenAI. "Puede rechazar algo que es inapropiado y puede desafiar una pregunta o una premisa que es incorrecta".

El método no era perfecto. OpenAI advirtió a quienes usan ChatGPT que "ocasionalmente puede generar información incorrecta" y "producir instrucciones dañinas o contenido sesgado". Pero la compañía planea continuar refinando la tecnología y recuerda a las personas que la usan que todavía es un proyecto de investigación.

Google, Meta y otras empresas también están abordando problemas de precisión. Meta eliminó recientemente una vista previa en línea de su chatbot, Galactica, porque generaba repetidamente información incorrecta y sesgada.

Los expertos han advertido que las empresas no controlan el destino de estas tecnologías. Los sistemas como ChatGPT, LaMDA y Galactica se basan en ideas, trabajos de investigación y códigos informáticos que han circulado libremente durante años.

Empresas como Google y OpenAI pueden impulsar la tecnología a un ritmo más rápido que otras. Pero sus últimas tecnologías han sido reproducidas y ampliamente distribuidas. No pueden evitar que las personas utilicen estos sistemas para difundir información errónea.

Así como el Sr. Howard esperaba que su hija aprendiera a no confiar en todo lo que leía en Internet, esperaba que la sociedad aprendiera la misma lección.

"Podrías programar millones de estos bots para que parezcan humanos, teniendo conversaciones diseñadas para convencer a la gente de un punto de vista particular", dijo. "He advertido sobre esto durante años. Ahora es obvio que esto está esperando que suceda".

Cade Metz es reportero de tecnología y autor de "Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World". Cubre inteligencia artificial, autos sin conductor, robótica, realidad virtual y otras áreas emergentes. @cademetz

Anuncio

Envía una historia a cualquier amigo 10 artículos de regalo