El estudio demostró que la utilización diaria y frecuente de ChatGPT está vinculada con la soledad, dependencia, menor socialización y uso problemático de la IA. Sin embargo, este sentimiento es difícil de cuantificar, sobre todo basándose en estadísticas y datos de este tipo. Los miembros del estudio midieron la sensación subjetiva de soledad de los usuarios en comparación con sus niveles de socialización.
Además, los usuarios que utilizan con mayor frecuencia ChatGPT suelen considerar a este chatbot como un amigo o atribuir emociones humanas, de acuerdo con lo investigado en el estudio. Esto resulta preocupante, sobre todo teniendo en cuenta que muchas personas recurren a la IA en busca de apoyo emocional y contención ante los problemas personales.
De acuerdo a lo explicado por Sandra Matz, autora de MINDMASTERS: The Data-Driven Science of Predicting and Changing Human Behavior, la frecuencia de uso de este tipo de Inteligencias Artificiales puede dañar progresivamente la capacidad de las personas de lidiar con el mundo real y las interacciones humanas.
Utilizar ChatGPT como terapia: un problema cada vez mayor
Muchas personas optan por contar sus problemas y buscar respuestas psicológicas en la Inteligencia Artificial. Ricardo Corral, presidente de la Asociación Argentina de Psiquiatras, explica que más allá de la búsqueda de consuelo emocional en los chatbots, existe un factor humano y una relación médico-paciente difícil de reemplazar.
ChatGPT puede comprender y procesar ciertos mecanismos pero jamás va a poder vivir las emociones humanas ni empatizar con las personas. En palabras del doctor en Psicología, Flavio Calvo: “si no hay un alma humana tocando otra alma humana, no es terapia, se resume a una serie de consejos y probabilidades sin corazón”.