Por Euny Hong
4 min lectura
¿Quieres obtener un certificado gratuito en blockchain para presumir tus conocimientos de IA? Realiza uno de los cursos gratuitos de Decrypt U, Introducción a la IA, IA y Música e IA para Empresas.
Microsoft, creador de OpenAI, publicó un white paper en conjunto con la Universidad Técnica de Virginia el 20 de agosto de 2023, presentando su revolucionario "Algoritmo de Pensamientos" (AoT). Este enfoque novedoso de la IA tiene como objetivo hacer que los modelos de lenguaje grandes o Large Language Models (LLMs) como ChatGPT aprendan con una progresión "similar a la de los humanos", como lo indica el documento.
El AoT pretende ir más allá de los métodos anteriores de instrucción de LLMs. El documento hace esta audaz afirmación: "nuestros resultados sugieren que instruir a un LLM utilizando un algoritmo puede llevar a un rendimiento superior al del propio algoritmo".
¿Significa esto que un algoritmo se vuelve más inteligente que... sí mismo? Bueno, se podría argumentar que así es como funciona la mente humana. Ese es el Santo Grial en la IA y lo ha sido desde el principio.
Microsoft afirma que el AoT fusiona "los matices del razonamiento humano y la precisión disciplinada de las metodologías algorítmicas".
Una afirmación audaz, pero esta aspiración en sí misma no es nada nueva. El "Aprendizaje automático," que su pionero Arthur Samuel definió como "el campo de estudio que le da a las computadoras la capacidad de aprender sin ser programadas específicamente," se remonta a 1950.
A diferencia de la programación tradicional de computadoras, en la cual un programador debe crear una lista detallada de instrucciones para que una computadora las siga y logre la tarea establecida, el aprendizaje automático utiliza datos para entrenar a la computadora a entrenarse a sí misma para encontrar patrones y resolver problemas. En otras palabras, operar de manera vagamente similar a la cognición humana.
ChatGPT de OpenAI utiliza una categoría de aprendizaje automático llamada RLHF (aprendizaje por refuerzo a partir de la retroalimentación humana), que le da la naturaleza de "conversaciones" fluidas con sus usuarios humanos.
El AoT va más allá de eso, afirmando superar el llamado enfoque "Chain of Thought" (CoT).
Si todas las invenciones son un intento de resolver un problema existente con el statu quo, se podría decir que AoT fue creado para resolver las deficiencias del enfoque de Cadena de Pensamiento.
En COT, los LLMs encuentran una solución desglosando una indicación o pregunta en "pasos lineales más simples para llegar a la respuesta", según Microsoft. Si bien es un gran avance en comparación con las indicaciones estándar, que implican un solo paso simple, presenta ciertos inconvenientes.
A veces presenta pasos incorrectos para llegar a la respuesta, porque está diseñado para basar conclusiones en precedentes. Y un precedente basado en un conjunto de datos dado está limitado a los confines del conjunto de datos. Esto, según Microsoft, conlleva "costos, memoria y sobrecarga computacional aumentados".
AoT al rescate…
El algoritmo evalúa si los pasos iniciales "pensamientos" para usar una palabra, generalmente asociada solo con los humanos, son sólidos, evitando así una situación en la que un "pensamiento" incorrecto se convierte en un resultado absurdo.
Aunque Microsoft no lo haya afirmado expresamente, se puede imaginar que si el AoT es lo que se dice que es, podría ayudar a mitigar las llamadas "alucinaciones" de la IA, ese fenómeno divertido y alarmante en el que programas como ChatGPT generan información falsa. En uno de los ejemplos más notorios, en mayo de 2023, un abogado llamado Stephen A. Schwartz admitió haber "consultado" a ChatGPT como fuente al realizar una investigación para un informe de 10 páginas. El problema: el informe se refería a varias decisiones judiciales como precedentes legales... que nunca existieron.
"Mitigar las alucinaciones es un paso crítico hacia la construcción de una Inteligencia Artificial General (IAG) alineada", dijo OpenAI en una publicación en su sitio oficial.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.