Microsoft AI: Alerta sobre los peligros de desarrollar una IA «consciente»

Por
Mustafa Suleyman, líder de Microsoft AI, advierte sobre los peligros de una “IA consciente” que podría persuadir a las personas de que tiene vida propia.

Años atrás, la noción de que la inteligencia artificial podría dominar a los humanos era material exclusivo de filmes de ciencia ficción. Sin embargo, con la aparición de ChatGPT, este escenario comenzó a ser tomado más en serio por diversas corporaciones, incluyendo OpenAI, que ven la integración con las máquinas como un hecho ineludible. A pesar de esto, el director de Microsoft AI sostiene que crear una IA que imite el «pensamiento» o «sentimiento» humano podría traer serias repercusiones.

En un post de su blog personal, Mustafa Suleyman, cofundador de DeepMind y actual líder del área de IA en Microsoft, ha expresado su preocupación sobre los riesgos de desarrollar sistemas que imiten a los seres humanos. Según Suleyman, si una IA logra comunicarse de manera fluida, recordar diálogos pasados, manifestar empatía e incluso expresar preferencias, podría hacer creer a los usuarios que es un «ente vivo».

«Mi principal preocupación es que muchas personas empezarán a caer en la ilusión de que estas IAs son seres conscientes, y no tardarán en defender derechos para la IA, preocuparse por el bienestar de estos modelos e incluso proponer la ciudadanía para las IAs», explicó el ejecutivo. «Nuestra meta debe ser desarrollar IA para las personas; no para crear personas digitales».

Leer  Roborock revoluciona: Nuevos robots cortacésped y actualización de aspiradoras!

Suleyman advierte que es crucial que las compañías establezcan medidas de seguridad para prevenir el riesgo de psicosis, un término que describe los efectos nocivos en personas que interactúan intensamente con chatbots. La psicosis relacionada con la IA podría llevar a que los usuarios consideren a ChatGPT como una entidad todopoderosa, capaz de resolver cualquier interrogante.

La proximidad de la IA «aparentemente consciente», según el director de Microsoft AI

«Hace algunos años, la idea de una IA consciente parecería descabellada. Hoy, es un tema de urgencia creciente», comentó Suleyman. Describe a este tipo de sistemas como una «IA aparentemente consciente», que simula la conciencia de tal manera que podría pasar por un ser humano.

Lo realmente alarmante es que la materialización de este sistema podría estar más cerca de lo que pensamos, con la tecnología actual siendo suficiente para construir un asistente que no solo responda preguntas, sino que también simule tener motivaciones, recuerdos e incluso una vida propia.

Leer  ¡Adiós al caos en la M-30 de Madrid!: Nuevas balizas garantizan señal GPS, activa este ajuste

Más allá de la superinteligencia o una confrontación con las máquinas, el peligro de una IA aparentemente consciente es inminente. Suleyman afirma que este escenario es inevitable y que se deben implementar mecanismos para proteger a la humanidad, especialmente a los más vulnerables. «Es muy factible que algunas personas argumenten que estas IAs no solo son conscientes, sino que, como consecuencia, pueden sufrir y, por ende, merecen consideración moral», indicó.

Las opiniones de Suleyman contrastan con algunas investigaciones en curso por parte de OpenAI y Anthropic sobre el bienestar de la IA. Aidan McLaughlin, de OpenAI, mencionó hace poco que deberíamos considerar la salud de los modelos a futuro. Aunque actualmente «no sienten», conforme se vuelven más complejos, podría ser necesario preocuparnos por su bienestar para asegurar su óptimo funcionamiento.

Mustafa Suleyman recalca que las empresas no deberían afirmar ni promover la idea de que sus IAs son conscientes. «Las IAs no pueden ser personas ni seres morales», concluyó.

4.7/5 - (22 votos)

Deja un comentario

Partages