OpenAI dice que ChatGPT puede provocar soledad. ¿Compromete el bienestar en el trabajo?

  • Un análisis de la compañía vincula el uso excesivo del chatbot con la sensación de soledad
  • El estudio invita a reflexionar sobre el tiempo dedicado a la IA a medida que crece su adopción

La inteligencia artificial está demostrando sus capacidades y aportaciones a la hora de agilizar procesos, reducir tiempos y costes o impulsar la productividad. Pero también parece estar contribuyendo a agravar la problemática de la desconexión humana, y por tanto, de la soledad, en un contexto de creciente hiperconectividad digital. 

Así lo ha concluido recientemente OpenAI en un estudio realizado junto a investigadores del MIT Media Lab Research. Aunque advierten de que el análisis tiene limitaciones y sus resultados deben interpretarse con cautela, apuntan que el uso excesivo de ChatGPT puede asociarse con mayores niveles de soledad. 

El análisis de OpenAI ha buscado entender el impacto del chatbot en las personas

La investigación ha buscado entender cómo afecta el uso del chatbot, y para ello ha puesto el foco en conversaciones en inglés y usuarios estadounidenses. Ha realizado dos estudios: uno observacional para analizar los patrones de uso reales en la plataforma, y uno intervencionista controlado para comprender el impacto en los usuarios.

En el primer estudio se analizaron casi 40 millones de interacciones con ChatGPT y se realizaron encuestas a usuarios para comprender mejor el uso real, correlacionando la opinión de los usuarios sobre ChatGPT con los atributos de las conversaciones.
En el segundo estudio se realizó un ensayo controlado con casi 1.000 participantes que usaron ChatGPT durante cuatro semanas. Se ha buscado identificar cómo las características específicas de la plataforma (como la personalidad y modalidad del modelo) y los tipos de uso podrían afectar a estados psicosociales, como la soledad, las interacciones sociales con personas reales, la dependencia emocional del chatbot o el uso problemático de la IA.

A partir de todo ello, OpenAI y MIT Media Lab Research concluyen que la interacción emocional con ChatGPT es poco frecuente, ya que las señales afectivas (indicaciones de empatía, afecto o apoyo) no se observaron en la gran mayoría de las conversaciones evaluadas. No obstante, trasladan que se observa un alto grado de uso afectivo pero limitado a un grupo pequeño de usuarios habituales del modo voz avanzado. Estos mostraron una mayor probabilidad de estar de acuerdo con afirmaciones como "considero a ChatGPT como un amigo".
En lo que respecta al modo voz, se asoció con un mayor bienestar cuando se da un uso breve, pero con peores resultados con un uso diario prolongado.

En esta línea, los diferentes tipos de conversación también afectan de manera diferente al bienestar. Las de carácter personal -aquellas que incluyen expresiones emocionales tanto por parte del usuario como del chatbot- se asocian con mayores niveles de soledad, pero menor dependencia emocional y uso problemático cuando se da un uso moderado de la herramienta. En cambio, las conversaciones no personales tienden a incrementar la dependencia emocional, especialmente cuando hay un uso abundante de ChatGPT. 

Noticias Relacionadas

Los investigadores señalan, además, que los resultados de los usuarios se ven influenciados por factores personales, como las necesidades emocionales de cada individuo, la percepción de la IA y la duración del uso. A este respecto, las personas con mayor tendencia al apego y quienes consideran a la IA como un amigo que podría integrarse en su vida personal parecen más propensas a experimentar efectos negativos por el uso de chatbots. El uso diario prolongado también se asocia con peores resultados. 

¿Un entorno laboral más solitario?

Si bien conviene interpretar las conclusiones de la investigación con cautela, los resultados plantean una reflexión acerca del impacto de la tecnología en las personas y del problema de la soledad, que en algunos países y culturas se considera ya como como emergencia de salud pública.

Invita también a pensar acerca de cómo se está adoptando la inteligencia artificial en las compañías. Si bien no se podría inferir la necesidad de prohibir herramientas como ChatGPT en el entorno laboral, sí convendría analizar el tiempo que los empleados dedican a interactuar con ellas, ya que el mayor impacto se observa entre los “heavy users”. Esto, además, cobra especial relevancia a medida que la interacción con los chatbots se asemeja cada vez más a la que se podría tener con un humano. 

A mayor tiempo dedicado a la IA, mayores podrán ser sus efectos emocionales

Actualmente, muchas herramientas de IA que están adoptando las empresas están en un segundo plano. Y cabría esperar que aprovechar sus sugerencias automatizadas para acelerar la redacción de un correo electrónico no dañe las amistades creadas en el trabajo, como si podría hacerlo dedicar ocho horas charlando en ChatGPT sentado en el escritorio.

Sin embargo, a medida que los agentes de inteligencia artificial encuentren su hueco en el mercado laboral, cada vez más personas se convertirán en “heavy users” de esta tecnología. Y con más individuos pasando más tiempo con chatbots, más reales serán los peligros emocionales y psicológicos de los que advierte la investigación de OpenAI. 

INFORMACIÓN, INSPIRACIÓN Y CRITERIO

Suscríbete gratis a la Newsletter que reciben a diario más de 50.000 profesionales de la industria.