Los asistentes virtuales basados en inteligencia artificial (IA) juegan un papel cada vez más importante en nuestras vidas, siendo herramientas ubicuas en aplicaciones móviles, servicios de atención al cliente y motores de búsqueda. Sin embargo, un reciente estudio ha revelado que estos sistemas podrían estar más seguros de su precisión de lo que realmente es justificado.
Investigadores de la Universidad Carnegie Mellon (CMU) llevaron a cabo un análisis comparativo entre la autoconfianza de humanos y cuatro grandes modelos de lenguaje (LLM): ChatGPT, Bard/Gemini, Sonnet y Haiku. Participantes de ambos grupos realizaron tareas como responder preguntas de cultura general, prever resultados de partidos de la NFL o identificar dibujos en un estilo similar al juego Pictionary. Tanto los humanos como las máquinas tendieron a sobrestimar su rendimiento, pero con una diferencia clave: solo los humanos ajustaron sus expectativas después de realizar las tareas.
Por ejemplo, cuando una persona inicialmente creía que acertaría 18 preguntas y terminaba acertando solo 15, ajustaba posteriormente su estimación a unas 16, resultando aún optimista, pero menos. Por el contrario, los modelos de IA no corrigieron su exceso de confianza; en algunos casos, incluso se mostraron más seguros tras fallar.
La investigación, publicada en la revista Memory & Cognition, recopila datos de dos años observando versiones actualizadas de los modelos. Se descubrió una consistente sobreconfianza entre diferentes sistemas de IA. «El problema es que al expresar sus respuestas con tanta seguridad, los usuarios pueden asumir erróneamente que la IA tiene razón”, advierte Danny Oppenheimer, coautor del estudio. A diferencia de los humanos, que muestran señales no verbales cuando dudan, las máquinas carecen de estos indicios.
Aunque resolver trivialidades o predecir resultados de premios pueda parecer menor, el estudio ilumina un tema crucial: la metacognición en la IA, o su capacidad para ser consciente de sus propios procesos mentales. En temas más subjetivos, como identificar dibujos o prever ganadores, los niveles de error fueron altos mientras que su confianza permaneció inalterada. Por ejemplo, el modelo Gemini solo identificó correctamente una imagen de cada 20, pero estimó haber acertado más de 14.
Trent Cash, primer firmante del estudio, lo ejemplificó diciendo que era como «ese amigo que asegura ser excelente jugando al billar, pero no logra meter una sola bola». De entre los modelos evaluados, Sonnet fue el menos confiado en exceso, mientras que ChatGPT-4 mostró un desempeño más cercano al humano en el juego de dibujo.
Los autores sugieren que, a pesar de la posibilidad de que los modelos mejoren con más datos, por el momento conviene ser escépticos ante sus afirmaciones. Preguntar explícitamente a estos sistemas por su nivel de confianza puede brindar información valiosa, sobre todo cuando los mismos admiten inseguridad. “La IA no está diseñada para responder todo lo que se le plantea”, advierte Oppenheimer, quien señala que muchas veces los chatbots ni siquiera se dan cuenta de que no tienen la respuesta correcta.
A medida que estas tecnologías se integran más en la vida diaria, es crucial reconocer sus limitaciones, como su falta de introspección o la incapacidad de aprender de los errores. Según Cash, “tal vez haya algo intrínsecamente humano en cómo aprendemos y reflexionamos sobre nuestras acciones”.