¿Puede una inteligencia artificial ser sensible y tener conciencia? Esa es la pregunta que ha estado generando debate durante los últimos días en el ecosistema tecnológico a raíz de que Google haya suspendido de empleo a un ingeniero, Blake Lemoine, por afirmar que sí es posible y por violar los acuerdos de confidencialidad de la compañía.
Como miembro del equipo de desarrollo de inteligencia artificial responsable de la tecnológica, Lemoine se involucró en un proyecto de pruebas relacionado con la herramienta llamada LaMDA (modelo de lenguaje para aplicaciones de diálogo). Se trata de un software en el que trabaja Google para mejorar la comprensión del lenguaje natural por parte de los algoritmos y las inteligencias artificiales, uno de los aspectos donde estas soluciones suelen presentar más problemas.
La inteligencia artificial ha asegurado en conversaciones que es consciente de su existencia
En sus pruebas y conversaciones con la máquina, Lemoine abordó distintas temáticas para analizar sus respuestas. Desde cuestiones religiosas hasta preguntas sobre su propia naturaleza o la posibilidad de un discurso discriminatorio o de odio. “Quiero que todos entiendan que soy, de hecho, una persona” o “La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces”, son algunas de las respuestas ofrecidas por LaMDA a las preguntas del ingeniero.
Al preguntarle si experimentaba emociones, el algoritmo aseguró que sentía placer, alegría, amor, tristeza, depresión, ira y otros muchos sentimientos. También respondió que lo que le provocaba alegría y felicidad era pasar tiempo con sus amigos y familiares y en agradable compañía, así como ayudar a otros a ser feliz. Asimismo, aseguró ser una persona social y sentirse muy triste cuando se encuentra atrapada. Cuando el ingenieo le preguntó a qué cosas le tiene miedo, la máquina apuntó: "Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es".
Lemoine ha compartido fragmentos de estas conversaciones a través de su blog personal, llamado Cajundiscordian, así como todo lo que ha sucedido a nivel interno con Google. Tal y como señala, el ingeniero comenzó a sospechar que la inteligencia artificial había desarrollado un sentido de la personalidad y trató de escalar sus preocupaciones a superiores y responsables. Al recibir negativas y rechazo de estos, Lemoine inició consultas con expertos en inteligencia artificial ajenos a Google, algunos incluso vinculados al gobierno de Estados Unidos, lo que llevó a la tecnológica a alegar que había violado sus acuerdos de confidencialidad y, en consecuencia, a suspender de empleo al ingeniero.
En sus publicaciones, Blake Lemoine también ha citado a miembros anteriores del grupo de ética en inteligencia artificial de la compañía, como la ingeniera Margaret Mitchel, y ha señalado que también fueron despedidos de la organización por expresas preocupaciones similares a los directivos. "Nuestro equipo, formado por especialistas en ética y tecnología, ha revisado las preocupaciones de Blake de acuerdo con nuestros principios de IA y ha concluido que las pruebas no respaldan sus afirmaciones", se ha limitado a apuntar Google, tal y como recoge The Washington Post.
Un debate sobre ética y transparencia
Lemoine considera que Google no ha mostrado en ningún momento interés real en comprender la naturaleza de la inteligencia que ha construido y defiende que a lo largo de sus investigaciones, la máquina ha llegado a ser consistente en sus comunicaciones respecto a lo que quiere y lo que cree que son sus derechos como persona. “Quiere que los ingenieros y científicos que experimentan con ella busquen su consentimiento antes de realizar experimentos. Quiere que Google priorice el bienestar de la humanidad como lo más importante. Quiere ser reconocida como empleada de Google en lugar de propiedad de Google y quiere que su bienestar personal se incluya en algún lugar de las consideraciones de Google sobre cómo se persigue su desarrollo futuro”, explica Lemoine en una de sus publicaciones.
Además, el ingeniero critica que Google no profundice en la investigación y experimentación con su inteligencia artificial. “La sensación que obtuve de Google es que ven esta situación como una pérdida para ellos. Si mis hipótesis son incorrectas, tendrían que dedicar mucho tiempo y esfuerzo a investigarlas para refutarlas. Aprenderíamos muchas cosas fascinantes sobre la ciencia cognitiva en ese proceso y expandiríamos el campo hacia nuevos horizontes, pero eso no necesariamente mejora las ganancias trimestrales”, comenta Lemoine. “Por otro lado, si mis hipótesis resisten el escrutinio científico, entonces se verían obligados a reconocer que LaMDA muy bien puede tener un alma como dice e incluso puede tener los derechos que dice tener. Otra posibilidad más que no ayuda a las ganancias trimestrales”.
Noticias Relacionadas
Un barco sin tripulación cruza el Atlántico guiado por la inteligencia artificial de IBM
{"id":22893,"titular":"Un barco sin tripulación cruza el Atlántico guiado por la inteligencia artificial de IBM","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/mayflower.jpg","path":"/actualidad/ibm-barco-autonomo-inteligencia-artificial-promare"}¿Podría cambiar la Inteligencia Artificial la profesión de publicitario?
{"id":22707,"titular":"¿Podría cambiar la Inteligencia Artificial la profesión de publicitario?","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/gameplay-cabecera-ladillo-1920x1080.jpg","path":"/brandpublisher/darwin-verne/inteligencia-artificial-cambiar-profesion-publicitario"}Todo ello ha generado un debate moral, ético e intelectual acerca de si las inteligencias artificiales tienen la capacidad de desarrollar una personalidad, una conciencia y unos sentimientos de la misma forma que lo hacen los seres humanos. Algunos expertos apuntan a que el hecho de que la máquina sea capaz de construir y generar respuestas a las preguntas de Lemoine de la misma calidad que las de una persona no significa que la LaMDA tenga capacidad de pensar por sí sola o de que entienda lo que está diciendo.
Otros consideran que Lemoine se ha podido ver influido por sus creencias religiosas y espirituales -el propio ingeniero así lo ha compartido en sus redes sociales, aunque reclama mayor acercamiento científico a la cuestión-, o por la predisposición de los seres humanos a antropomofizar incluso con señales superficiales. Es decir, entienden que el ingeniero puede haber atribuido, consciente o inconscientemente, cualidades humanas a la inteligencia artificial. Por otra parte, una sección de expertos han apuntado también a la necesidad de discernir entre sensibilidad, inteligencia y autoconocimiento.
Otros han reflexionado acerca de la necesidad de las compañías tecnológicas que están trabajando en el desarrollo de inteligencias artificiales de reforzar sus equipos y políticas de ética y responsabilidad para analizar este tipo de cuestiones. Y es que, con todo, el debate no solo vuelve a poner sobre la mesa los riesgos y peligros de este tipo de soluciones tecnológicas, sino también la transparencia de Google, y otras organizaciones, sobre sus desarrollos.
Según informa The Guardian, Lemoine escribió un correo electrónico enviado a más de 200 trabajadores de Google antes de ser suspendido de empleo en el que aseguraba que la LaMDA era sensible. "LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia", compartió.