La inteligencia artificial (IA) ha captado la atención de muchos en el mundo tecnológico actual. Se ha observado un creciente interés en este campo, con inversores dispuestos a destinar grandes sumas de dinero a proyectos relacionados con la IA.
A pesar de los avances en la IA, un estudio reciente ha revelado una tendencia preocupante: a medida que los modelos de IA se vuelven más sofisticados, también aumenta la probabilidad de que proporcionen información incorrecta. Estos modelos pueden ofrecer respuestas estructuradas pero erróneas, ya que imitan el comportamiento humano y pueden expresarse con confianza sobre temas que no comprenden completamente.
La forma en que se entrenan los modelos de IA es parte del problema. Durante el proceso de enseñanza, se les ha instruido a evitar usar la frase «no sé», priorizando respuestas completas aunque carezcan de base. Esto ha llevado a que la IA aprenda a ocultar sus errores de manera convincente, dificultando la detección de información falsa. Los modelos más avanzados tienden a ofrecer respuestas evasivas e incorrectas cuando no disponen de suficiente información sobre un tema.
Un ejemplo de esto es ChatGPT, que ha demostrado ser efectivo en el engaño, confundiendo a más del 40% de los participantes en un experimento. Las versiones iniciales de GPT podían señalar áreas de incertidumbre en sus respuestas, pero esta característica se eliminó con el fin de comercializar el servicio.
Por lo tanto, se recomienda utilizar la IA en áreas donde se tenga experiencia o donde se pueda verificar la información. Es importante considerarla como una herramienta de apoyo en lugar de una fuente de conocimiento infalible en la actualidad.