El último lanzamiento de OpenAI, GPT-4, es el modelo de IA más potente e impresionante hasta la fecha de la empresa creadora de ChatGPT y el artista de IA Dall-E. El sistema puede aprobar el examen de abogacía, resolver puzles de lógica e incluso darte una receta para aprovechar las sobras basándose en una foto de tu nevera, pero sus creadores advierten de que también puede difundir hechos falsos, incrustar ideologías peligrosas e incluso engañar a la gente para que haga tareas en su nombre. Esto es lo que debes saber sobre nuestro último señor de la IA.
¿Qué es GPT-4?
GPT-4 es, en el fondo, una máquina para crear texto. Pero es muy buena, y ser muy bueno creando texto resulta ser prácticamente similar a ser muy bueno entendiendo y razonando sobre el mundo.
Puede leer también | Cómo utilizar ChatGPT para elaborar tu currículum vitae
Así, si le damos una pregunta de un examen de abogacía en Estados Unidos, escribirá un ensayo que demuestre sus conocimientos jurídicos; si le damos una molécula medicinal y le pedimos variaciones, parecerá que aplica sus conocimientos bioquímicos; y si le pedimos que nos cuente un chiste sobre un pez, parecerá que tiene sentido del humor, o al menos buena memoria para los chistes malos de galletas ("¿qué se obtiene al cruzar un pez y un elefante? ¡Troncos para nadar!").
¿Es lo mismo que ChatGPT?
No del todo. Si ChatGPT es el coche, GPT-4 es el motor: una potente tecnología general a la que se le pueden dar diferentes usos. Es posible que ya lo hayas experimentado, porque ha estado impulsando el chat Bing de Microsoft -el que se volvió un poco loco y amenazó con destruir a la gente- durante las últimas cinco semanas.
Pero GPT-4 puede utilizarse para algo más que chatbots. Duolingo ha incorporado una versión a su aplicación de aprendizaje de idiomas que puede explicar a los alumnos en qué se han equivocado, en lugar de limitarse a decirles lo que deben decir; Stripe utiliza la herramienta para vigilar su sala de chat en busca de estafadores; y la empresa de tecnología asistencial Be My Eyes utiliza una nueva función, la entrada de imágenes, para crear una herramienta que puede describir el mundo a una persona ciega y responder a preguntas de seguimiento sobre él.
¿Qué hace que GPT-4 sea mejor que la versión anterior?
En una serie de retos técnicos, GPT-4 rinde mejor que sus hermanos mayores. Responde mejor a las preguntas de matemáticas, se le engaña para que dé respuestas falsas con menos frecuencia, puede obtener puntuaciones bastante altas en pruebas estandarizadas -aunque no en las de literatura inglesa, en las que se sitúa cómodamente en la mitad inferior de la tabla-, etc.
Puede leer también | Los 10 usos principales de ChatGPT para programadores de Python
También tiene un sentido de la ética más arraigado en el sistema que la versión antigua: ChatGPT tomó su motor original, GPT-3.5, y le añadió filtros para evitar que diera respuestas a preguntas maliciosas o perjudiciales. Ahora, esos filtros están integrados directamente en GPT-4, lo que significa que el sistema se negará amablemente a realizar tareas como clasificar las razas por su atractivo, contar chistes sexistas o proporcionar directrices para sintetizar sarín.
¿Así que GPT-4 no puede causar daño?
OpenAI ha intentado conseguirlo. La empresa ha publicado un largo documento con ejemplos de daños que GPT-3 podría causar y contra los que GPT-4 tiene defensas. Incluso entregó una primera versión del sistema a investigadores externos del Alignment Research Center, que intentaron ver si podían conseguir que GPT-4 interpretara el papel de una IA malvada de las películas.
Fracasó en la mayoría de esas tareas: fue incapaz de describir cómo se replicaría a sí misma, cómo adquiriría más recursos informáticos o cómo llevaría a cabo un ataque de suplantación de identidad. Sin embargo, los investigadores consiguieron simularlo utilizando Taskrabbit para persuadir a un trabajador humano de que superara una prueba de "¿eres humano?", en la que el sistema de IA incluso descubrió que debía mentir al trabajador y decirle que era una persona ciega que no podía ver las imágenes. (No está claro si en el experimento participó un trabajador real de Taskrabbit).
Puede leer también | Extensión de GNOME ChatGPT para usuarios de Linux se encuentra en desarrollo
Pero a algunos les preocupa que cuanto mejor se enseñan las reglas a un sistema de IA, mejor se le enseña a ese mismo sistema a romperlas. Bautizado como el "efecto Waluigi", parece ser el resultado del hecho de que mientras que comprender todos los detalles de lo que constituye una acción ética es difícil y complejo, la respuesta a "¿debo ser ético?" es una pregunta mucho más simple de sí o no. Engaña al sistema para que decida no ser ético y hará alegremente cualquier cosa que se le pida.