Cómo funciona el chat de inteligencia artificial que usó Macri
El expresidente, Mauricio Macri, leyó un fragmento de texto elaborado por inteligencia artificial durante su discurso en la cena de la Fundación Libertad.
El líder de Juntos por el Cambio (JxC) explicó que se trata de la herramienta ChatGPT, un sistema de chat automatizado capaz de elaborar textos a partir del ingreso de preguntas o instrucciones.
En el video, la lectura de Macri al tomar la palabra en el evento.
Qué es ChatGPT y cómo funciona
ChatGPT (Generativo Preentrenado Transformador) fue creado en 2022 por la empresa de investigación en inteligencia artificial OpenAI.
Funciona en base a tecnología de aprendizaje automático, es decir, sus propios mecanismos le permiten procesar grandes cantidades de información para mejorar su capacidad de resolver problemas. Para eso cuenta con 175 millones de parámetros que articula en simultáneo.
El entrenamiento del sistema se produce a través de dos modos principales de ingreso de datos: por un lado, se le incorporan grandes cantidades de texto para "enseñarle" un lenguaje. Por otro, se simulan conversaciones reales con humanos para optimizar la naturalidad en el diálogo.
Con la repetición de estos procesos, ChatGPT se vuelve cada vez más preciso en la comprensión de las preguntas, consignas o desafíos que le plantean los usuarios.
De este modo, la herramienta "aprende" a escribir código informático, guiones, resolver problemas matemáticos, redactar textos de diferentes géneros y estilos y componer letras musicales, entre otras funciones.
Limitaciones y fallas de ChatGPT
Como todo sistema de inteligencia artificial, el desarrollo y alcance de ChatGPT depende fundamentalmente de la supervisión humana.
Esto significa que la herramienta puede reproducir sesgos comunes de las personas como ideas racistas o sexistas, según han señalado especialistas en el tema.
Asimismo, si bien las respuestas del chat alcanzan un grado de naturalidad similar al de la gente, logra esto gracias a su capacidad de procesamiento estadístico, y no a la comprensión real del lenguaje humano.
Consultada al respecto por Bloomberg, la profesora del Instituto Santa Fe de Estados Unidos, Melanie Mitchell, explicó que dichos sistemas "hacen asociaciones estadísticas masivas entre palabras y frases", por lo que "cuando comienzan a generar un nuevo lenguaje, confían en esas asociaciones, las que a su vez pueden resultar sesgadas de modo racista u otros".