
OpenAI advirtió de los riesgos que conlleva el empleo excesivo de su asistente virtual en un estudio que publicó junto al MIT.
La inteligencia artificial (IA) está cada vez más presente en la vida de las personas. Con ella se pueden realizar tareas y operaciones que facilitan el estudio, el trabajo y tantos otros aspectos de la existencia humana. Sin embargo, su uso excesivo está produciendo efectos no deseados, desde posibles manipulaciones hasta obsesiones extremas con estos programas. Esos peligros colocaron a la IA en el escrutinio público. Lo sorprendente es que OpenAI, la propia empresa creadora de uno de los asistentes virtuales más populares, ChatGPT, corroboró ciertas repercusiones negativas en la salud mental ocasionadas por el empleo de esta tecnología. Al parecer, el aislamiento podría fomentar una relación compleja con esta tecnología.
Millones de personas, tanto jóvenes como adultas, dependen cada vez más de los chats de inteligencia artificial e, incluso, existen programas que se dedican exclusivamente a crear vínculos sentimentales con bots. Algunas de estas plataformas son Nomi, Character.ai o Replika, que ofrecen simular sentimientos cada vez más reales y que, obviamente, no son gratuitos, lo que encendió las alarmas por un posible negocio con la manipulación emocional. Estas derivaciones llevaron a OpenAI, junto a científicos e investigadores del Instituto Tecnológico de Massachusetts (MIT), a estudiar el grado de apego emocional existente entre la IA y los usuarios que la utilizan.
Resultados inquietantes
La investigación comprendió dos estudios: en el primero, se analizaron conversaciones de casi 40 millones de usuarios que usan ChatGPT y, en el segundo, se desarrolló un ensayo controlado de 981 personas que usaron el bot durante cuatro semanas. Ambos análisis buscaron identificar cómo las características específicas del chat pueden afectar a los factores psicosociales, entre ellos, la soledad. Los resultados arrojaron que en la mayoría de los casos, la interacción emocional con el chat es poco frecuente y no se observaron interacciones afectivas. Sin embargo, hubo un pequeño sector del total donde sí se observan correlaciones con la soledad, la dependencia emocional y una menor interacción social real, en especial con conversaciones personales.
El segmento que busca contacto afectivo en ChatGPT estaría constituido por personas que se sienten solas y recurren a la tecnología como refugio. A diferencia de lo que sucede en las redes sociales, los modelos de IA están programados para escuchar, afirmar y acompañar emocionalmente al usuario. Según el informe de OpenAI y el MIT, si estos chats realmente pueden reemplazar a las conexiones humanas reales, podrían generar dependencia, profundizando la soledad en lugar de aliviarla.
El informe señala que estos resultados deben invitar a la sociedad a pensar acerca del impacto de la tecnología en las personas y del problema de la soledad, y sobre cómo se está adoptando la inteligencia artificial en las compañías. También afirman que la solución no está en prohibir la IA, sino que se debe apostar por un diseño y un uso responsables. Es importante detectar patrones de uso problemático con herramientas de análisis; incorporar recordatorios para frenar el empleo excesivo y prolongado de la herramienta, y fomentar la creación de chatbots que apoyen emocionalmente sin crear dependencia ni manipulación.