¿Qué oportunidades y riesgos presenta GPT-4, la nueva versión del sistema de IA?

¿Qué oportunidades y riesgos presenta GPT-4, la nueva versión del sistema de IA?

La empresa OpenAI presentó esta semana un nuevo modelo del popular sistema de inteligencia artificial (IA) ChatGPT que, según los desarrolladores, es más potente. 

Los creadores afirman que la nueva herramienta denominada GPT-4, además de texto, acepta imágenes y emite también salidas de texto, lo que permite chatear con el sistema introduciendo archivos complejos, como libros enteros para resumirlos, con el fin de hacerlo más rápido, preciso y humano.

Según el comunicado de OpenAI, GPT-4 obtuvo mejores resultados en los exámenes de prueba que el modelo original de IA y, al parecer, ahora genera resultados más precisos hasta en un 40 %. Además, el modelo tiene un 82 % más de probabilidades de no responder a las solicitudes de contenidos no permitidos como las peticiones de incitación al odio. 

OpenAI propuso un par de formas en que la herramienta podría mejorar la vida cotidiana. En concreto, la empresa colaboró con la aplicación de aprendizaje de idiomas Duolingo para crear un chatbot basado en IA llamado Roleplay. Esta herramienta permite mantener una conversación en otro idioma con un chatbot que responde a lo que dice el usuario e interviene para corregir cuando es necesario.

Asimismo, en asociación con Be My Eyes, una aplicación que permite a los discapacitados visuales obtener ayuda de una persona vidente a través de un videochat, OpenAI utilizó GPT-4 para crear un asistente virtual capaz de ayudar a las personas a entender el contexto de lo que ven a su alrededor.

ChatGPT-4 está disponible actualmente para los miembros de ChatGPT+, que cuesta 20 dólares al mes, y para desarrolladores de aplicaciones.

«Todavía tiene fallas»

Sin embargo, Sam Altman, director ejecutivo de OpenAI, reconoció que GPT-4 «todavía tiene fallas, todavía es limitado y todavía parece más impresionante en el primer uso que después de pasar más tiempo con él». 

Desde la empresa también aseguraron que «GPT-4 presenta riesgos similares a los modelos anteriores, como la generación de consejos perjudiciales, código con errores o información inexacta», pero «las capacidades adicionales de GPT-4 conducen a nuevas superficies de riesgo».

«GPT-4 y los modelos sucesores tienen el potencial de influir significativamente en la sociedad tanto de forma beneficiosa como perjudicial», señalaron. 

Otra preocupación sobre la herramienta consiste en la falta de transparencia sobre cómo se diseñó y entrenó. Así, varios investigadores y expertos del sector señalaron en Twitter que la empresa no facilita ninguna información sobre el conjunto de datos que utilizó para entrenar GPT-4. Argumentan que es un problema debido a que los grandes conjuntos de datos utilizados para entrenar a los chatbots de inteligencia artificial pueden estar intrínsecamente sesgados.

«¿Qué nos quedará por hacer a los humanos?«

Mientras, muchas personas se muestran alarmadas por el desarrollo de la inteligencia artificial. El magnate estadounidense Elon Musk considera que la inteligencia artificial representa una de las mayores amenazas para el futuro de la civilización y que se debe prestar más atención a la seguridad de este tipo de sistemas. «Si algo va mal, la reacción puede ser demasiado lenta», advirtió.

«¿Qué nos quedará por hacer a los humanos?«, tuiteó Musk en respuesta a una publicación sobre los poderosos resultados de GPT-4 en un examen simulado para poder ejercer la abogacía en EE.UU. 

Al mismo tiempo, los científicos se preocupan de que el ‘software’ de escritura de IA podría dañar la credibilidad de la comunidad científica. «Cualquier tecnología, si se utiliza mal, puede ser peligrosa», declaró a South China Morning Post Catherine Gao, de la Universidad estadounidense Northwestern, agregando que «organizaciones como las papeleras [fábricas de artículos falsos de investigación] podrían utilizar esta tecnología con mayor facilidad para fabricar escritos y resultados científicos«.