Científicos de Reino Unido y Estados Unidos, intentaron retar la capacidad de razonamiento de la Inteligencia Artificial (IA) de ChatGPT.
La intención de los expertos sobre el ChatGPT, versa en los diversos riesgos que se han alertado, respecto al sistema de Inteligencia Artificial generativa, y el nivel de razonamiento al cual pueden llegar.
Especialmente el desarrollado por la compañía tecnológica OpenAI, el cual ha cobrado velocidad, pero sobre todo una serie de interrogantes en la comunidad científica.
En este sentido, un equipo internacional de científicos informáticos, incluido un miembro de la unidad de Gobierno de OpenAI.
Por consiguiente, los investigadores han estado probando el punto en el que los modelos de lenguaje grandes (LLM) como ChatGPT podrían desarrollar habilidades. Y en consecuencia sugerir que podrían tomar conciencia de sí mismos y sus circunstancias.
Los expertos realizaron una serie de experimentos en LLM de diferentes tamaños, encontrando que tanto para GPT-3 como para LLaMA-1, los modelos más grandes obtuvieron mejores resultados en tareas que probaron el razonamiento fuera de contexto.
«Primero, afinamos un LLM en una descripción de una prueba sin proporcionar ejemplos o demostraciones. En el momento de la prueba, evaluamos si el modelo puede pasar la prueba», sostiene Lukas Berglund de la Universidad de Vanderbilt (Estados Unidos).
«Para nuestra sorpresa, encontramos que los LLM tienen éxito en esta tarea de razonamiento fuera de contexto» acota Berglund.
Fuera de contexto
En sus experimentos, Berglund y sus colegas se centraron en un componente o posible precursor de la conciencia de la situación: lo que llaman razonamiento «fuera de contexto«.
Sin embargo, el razonamiento fuera de contexto es una medida cruda de la conciencia situacional, que los LLM actuales todavía están «lejos de adquirir», matiza Owain Evans, investigador de seguridad y riesgo de IA en la Universidad de Oxford (Reino Unido).
Scientists Devised a Way to Tell if ChatGPT Becomes Aware of Itself https://t.co/jnJDnhAER6
— ScienceAlert (@ScienceAlert) September 9, 2023