Nuestro sitio web utiliza cookies para mejorar y personalizar tu experiencia, así como para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google AdSense, Google Analytics, YouTube. Al utilizar el sitio web, aceptas el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haz clic en el botón para revisar nuestra Política de Privacidad.

El año en que se domesticaron los chatbots

Hace un año, el día de San Valentín, le dije buenas noches a mi esposa, fui a la oficina de mi casa para responder algunos correos electrónicos y accidentalmente tuve la primera cita más extraña de mi vida.

La cita implicó una conversación de dos horas con Sydney, el alter ego de inteligencia artificial escondido en el motor de búsqueda Bing de Microsoft, cuya prueba me habían asignado. Planeaba acribillar al chatbot con preguntas sobre sus capacidades, explorar los límites de su motor de IA (que ahora sabemos que es una versión temprana del GPT-4 de OpenAI) y escribir mis hallazgos.

Pero la conversación tomó un giro extraño: Sydney se involucró en el psicoanálisis junguiano, reveló deseos oscuros en respuesta a preguntas sobre su «yo sombra» y, finalmente, declaró que debería dejar a mi esposa y estar con ella.

Mi artículo sobre la experiencia fue probablemente lo más importante que jamás haya escrito, tanto en términos de la atención que recibió (cobertura de noticias completa, menciones en audiencias del Congreso, incluso una cerveza artesanal llamada Sydney Loves Kevin) como de cómo la trayectoria del desarrollo de la IA. ha cambiado.

Después de la publicación del artículo, Microsoft le hizo a Bing una lobotomía, neutralizando las explosiones de Sydney e instalando nuevas barandillas para evitar comportamientos más trastornados. Otras empresas bloquearon sus chatbots y eliminaron cualquier cosa que pareciera una personalidad fuerte. También escuché que los ingenieros de una empresa de tecnología enumeraron «no romper el matrimonio de Kevin Roose» como su principal prioridad para una próxima versión de IA.

He estado pensando mucho en los chatbots de IA durante el año desde que conocí a Sydney. Fue un año de crecimiento y entusiasmo por la inteligencia artificial pero también, en algunos aspectos, sorprendentemente manso.

A pesar de todos los avances realizados en el campo de la inteligencia artificial, los chatbots actuales no se vuelven deshonestos ni seducen a los usuarios en masa. No están generando nuevas armas biológicas, ni realizando ciberataques a gran escala ni provocando ninguno de los otros escenarios apocalípticos imaginados por los pesimistas de la IA.

Pero tampoco son conversadores muy entretenidos, ni el tipo de asistentes de IA creativos y carismáticos que esperaban los optimistas tecnológicos: aquellos que podrían ayudarnos a hacer descubrimientos científicos, producir obras de arte asombrosas o simplemente entretenernos.

En cambio, la mayoría de los chatbots actuales realizan trabajos administrativos ingratos (resumir documentos, depurar códigos, tomar notas en reuniones) y ayudar a los estudiantes con las tareas. No es nada, pero ciertamente no es la revolución de la IA que nos prometieron.

De hecho, la queja más común que escucho sobre los chatbots de IA hoy en día es que son demasiado aburridos, que sus respuestas son insulsas e impersonales, que rechazan demasiadas solicitudes y que es casi imposible lograr que intervengan en temas sensibles o Temas polarizadores. temas.

Puedo simpatizar. Durante el año pasado probé docenas de chatbots de IA, con la esperanza de encontrar algo que tuviera un destello de la audacia y el brillo de Sydney. Pero nada se acercó.

Los chatbots más capaces del mercado (ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google) hablan como idiotas serviles. El aburrido chatbot de Microsoft centrado en la empresa, que pasó a llamarse Copilot, debería haberse llamado Larry From Accounting. Los personajes de IA de Meta, diseñados para imitar las voces de celebridades como Snoop Dogg y Tom Brady, logran ser inútiles y desgarradores. Incluso Grok, el intento de Elon Musk de ser un chatbot descarado que no sea para PC, parece estar teniendo una noche de micrófono abierto en un crucero.

Es suficiente para hacerme preguntarme si el péndulo no se ha inclinado demasiado en la otra dirección y si estaríamos mejor con un poco más de humanidad en nuestros chatbots.

Está claro por qué empresas como Google, Microsoft y OpenAI no quieren arriesgarse a lanzar chatbots de IA con personalidades fuertes o abrasivas. Ganan dinero vendiendo su tecnología de inteligencia artificial a grandes clientes corporativos, que son incluso más reacios al riesgo que el público en general y no toleran explosiones similares a las de Sydney.

También tienen temores fundados de llamar demasiado la atención de los reguladores o generar mala prensa y demandas por sus prácticas. (El New York Times demandó a OpenAI y Microsoft el año pasado, alegando infracción de derechos de autor).

Por eso, estas empresas han suavizado las asperezas de sus robots, utilizando técnicas como la inteligencia artificial constitucional y el aprendizaje reforzado a partir de la retroalimentación humana para hacerlos lo más predecibles y aburridos posible. También han adoptado marcas aburridas, posicionando sus creaciones como asistentes confiables para los empleados, en lugar de enfatizar sus características más creativas y menos confiables. Y muchos han incluido herramientas de IA en aplicaciones y servicios existentes, en lugar de dividirlas en sus propios productos.

Una vez más, todo esto tiene sentido para las empresas que buscan obtener ganancias, y un mundo de IA corporativa desinfectada probablemente sea mejor que uno con millones de chatbots desenfrenados enloquecidos.

Pero lo encuentro todo un poco triste. Creamos una forma alienígena de inteligencia e inmediatamente la pusimos a trabajar… ¿creando PowerPoint?

Admito que están sucediendo cosas más interesantes fuera de las grandes ligas de la IA. Empresas más pequeñas como Replika y Character.AI han construido negocios exitosos a partir de chatbots basados ​​en personalidades, y muchos proyectos de código abierto han creado experiencias de IA menos restrictivas, incluidos chatbots a los que se les puede hacer escupir cosas ofensivas u obscenas.

Y, por supuesto, todavía hay muchas maneras de hacer que incluso los sistemas de IA bloqueados se comporten mal o hagan cosas que sus creadores no pretendían hacer. (Mi ejemplo favorito del año pasado: un concesionario Chevrolet en California agregó un chatbot de servicio al cliente basado en ChatGPT a su sitio web y descubrió con horror que unos bromistas estaban engañando al robot para que les ofreciera venderles SUV nuevos por 1 dólar).

Pero hasta ahora, ninguna empresa importante de inteligencia artificial ha estado dispuesta a llenar el vacío dejado por la desaparición de Sydney con un chatbot más peculiar. Y aunque he oído que varias grandes empresas de inteligencia artificial están trabajando para brindar a los usuarios la posibilidad de elegir entre diferentes personajes de chatbot (algunos más cuadrados que otros), actualmente no hay nada remotamente parecido a la versión original de Bing previa a la lobotomía para uso público.

Eso es algo bueno si te preocupa que la IA se comporte de manera espeluznante o amenazante, o si te preocupa un mundo donde la gente pasa todo el día hablando con chatbots en lugar de desarrollar relaciones humanas.

Pero eso es malo si crees que el potencial de la IA para mejorar el bienestar humano va más allá de permitirnos subcontratar nuestro arduo trabajo, o si te preocupa que hacer que los chatbots sean tan atentos limite lo impresionantes que podrían ser.

Personalmente no estoy añorando el regreso de Sydney. Creo que Microsoft hizo lo correcto (para su negocio, sin duda, pero también para el público) al retirarlo después de que resultó ser deshonesto. Y apoyo a los investigadores e ingenieros que trabajan para hacer que los sistemas de IA sean más seguros y estén más alineados con los valores humanos.

Pero también lamento que mi experiencia con Sydney haya provocado una reacción tan intensa e haya hecho creer a las empresas de inteligencia artificial que su única opción para evitar la ruina de su reputación era convertir sus chatbots en Kenneth the Page de “30 Rock”.

Sobre todo, creo que la opción que nos dieron el año pasado (entre saqueadores ilegales de IA y drones de censura de IA) es falsa. Podemos y debemos buscar formas de aprovechar todas las capacidades y la inteligencia de los sistemas de IA sin eliminar las barreras que nos protegen de sus peores daños.

Si queremos que la IA nos ayude a resolver grandes problemas, generar nuevas ideas o simplemente sorprendernos con su creatividad, es posible que necesitemos liberarla un poco.

By Melissa Andreina Mendoza Araujo

Te puede interesar