
Traducido por Julio Batista
Original de Katharine Sanderson para un Naturaleza
PARA empresa de inteligencia artificial OpenAI revela esta semana o GPT-4, la encarnación más reciente del gran modelo de lenguaje que impulsa su popular chatbot ChatGPT. La compañía afirma que GPT-4 contiene grandes beneficios: sorprenderá a las personas con su capacidad para crear texto similar al humano y generar imágenes y código de computadora desde casi cualquier mensaje. Los investigadores dicen que estas habilidades tienen el potencial de transformar la ciencia, pero algunos se sienten frustrados por no poder acceder a la tecnología, su código subyacente o información sobre cómo se formó. Esto está causando una creciente preocupación sobre la seguridad de la tecnología y la hace menos útil para la investigación, dijeron los científicos.
Una actualización para GPT-4, lanzada el 14 de marzo, es que ahora puede procesar imágenes y también texto. Y como demostración de su destreza lingüística, OpenAI, con sede en São Francisco, California, EE. UU., dice que aprobó el examen legal de orden de EE. UU. con resultados en el percentil 90, en comparación con el percentil 10 de la versión anterior de ChatGPT. Pero la tecnología aún no está ampliamente disponible: ahora solo los pagos de ChatGPT tienen acceso.
«Hay una lista de espera en este momento, por lo que no puede usarla ahora», dice Evi-Anne van Dis, psicóloga de la Universidad de Amsterdam. Pero vio demostraciones de GPT-4. “Vimos videos en los que demostraban sus habilidades y fue surrealista”, dice. Un ejemplo, dijo, fue un conejo dibujado a mano de un sitio, que GPT-4 usó para producir el código de computadora necesario para construir ese sitio, como una demostración de la capacidad de tratar imágenes como entrada.
Hay más frustración en la comunidad científica sobre el sigilo de OpenAI sobre cómo se entrenó el modelo de datos y cómo funciona realmente. “Todos estos patrones de código fechados están básicamente basados en la ciencia”, dice Sasha Luccioni, científica investigadora del clima en HuggingFace, una comunidad de IA de código abierto. «El es [da OpenAI] Podemos continuar desarrollando su investigación, pero para la comunidad en general, es una subvención sin salir.
Prueba «el equipo rojo»
Andrew White, ingeniero químico de la Universidad de Rochester, tiene acceso privilegiado a GPT-4 como «equipo de red»: una persona paga para que OpenAI pruebe la plataforma con el fin de probarla. Tiene acceso a GPT-4 en los últimos seis meses, infórmenos. «Al comienzo del proceso, no se veía tan diferente» en comparación con iteraciones anteriores.
Le preguntó al bot qué pasos de reacción química se necesitaban para hacer compost, predecir el rendimiento de la reacción y elegir un catalizador. «Yo no empecé, no estaba tan impresionado», dice White. “Fue realmente sorprendente porque se veía muy realista, pero a veces agregabas un átomo al azar o dabas un paso”, agregó. Pero cuando, como parte de su trabajo de equipo rojo, el deu ao GPT-4 acceda a artículos científicos, las cosas cambiarán drásticamente. «Isso nos hizo darnos cuenta de que estos modelos podrían no ser tan buenos. Pero cuando comienzas a conectarlos a Internet con herramientas como un planificador de inversiones o una calculadora, de repente surgen nuevos tipos de capacidades.
Y con esas habilidades, ves preocupaciones. Por ejemplo, ¿podría GPT-4 permitir la producción de productos químicos peligrosos? Con información de personas como White, los ingenieros de OpenAI revertirán su modelo para desalentar o GPT-4 de producir contenido peligroso, ilegal o dañino, dice White.
hechos falsos
La difusión de información falsa es otro problema. Luccioni dice que los modelos como el GPT-4, que existen para anticipar la siguiente palabra en una oración, no se pueden corregir por completo inventando hechos falsos, conocidos como alucinaciones. «No puedes confiar en este tipo de modelos porque hay muchas alucinaciones», dice. Y eso sigue siendo una preocupación en la versión más reciente, dice, pero OpenAI dice que es mejor asegurarse de que no sea GPT-4.
Sin acceso a los dados utilizados para el entrenamiento, las garantías de seguridad de OpenAI son por este medio Luccioni. “No sabes lo que te están dando. Así que no puedes mejorarlo. Tengo ganas de decir que es completamente imposible hacer ciencia con un modelo como ese”, dice.
El misterio sobre la formación de GPT-4 también preocupa al colega de van Dis en Ámsterdam, el psicólogo Claudi Bockting. «Es muy difícil para un ser humano ser responsable de algo que no puedes supervisar», dice. «Una de las preocupaciones es que pueden estar mucho más sesgados que, digamos, la idea preconcebida de que los seres humanos temen por sí mismos». Sin poder acceder al código detrás de GPT-4, es imposible ver de dónde o cómo vino o arreglarlo, explicó Luccioni.
discusiones éticas
A Bockting y van Dis también les preocupa que cada vez más estos sistemas de IA sean propiedad de grandes empresas tecnológicas. Quieren asegurarse de que los científicos prueben y verifiquen exhaustivamente la tecnología. «También es una oportunidad porque la colaboración con la gran tecnología puede, por supuesto, acelerar los procesos», agregó.
Van Dis, Bockting y sus colegas discutirán a principios de este año la necesidad urgente de un conjunto de pautas «vivas» para controlar cómo se usan y desarrollan la IA y herramientas como GPT-4. Les preocupa que cualquier legislación sobre tecnologías de IA tenga dificultades para seguir el ritmo del desarrollo. Bockting y van Dis convocarán una conferencia para invitados en la Universidad de Amsterdam el 11 de abril para discutir estas preocupaciones, con representantes de organizaciones como el Comité de Ética en la Ciencia de la UNESCO, la Organización para la Cooperación y el Desarrollo y el Foro Económico Mundial.
A pesar de la preocupación, GPT-4 y sus futuras iteraciones respaldarán la ciencia, dice White. “Desearía que en verdad hubiera un gran cambio en la infraestructura científica, porque al igual que Internet, fue un gran cambio”, dijo. Isso no reemplazará a los científicos, los aumentará, pero puede ayudar en ciertas tareas. «Ahora que comenzamos a darnos cuenta de que podemos conectar documentos, programas de datos, bibliotecas que usamos y trabajo de computadora o incluso experimentos robóticos».