El último sábado, Meta introdujo al mundo su nueva gama de modelos de inteligencia artificial denominada Llama 4. Con esta nueva serie, la empresa dirigida por Mark Zuckerberg busca consolidar su posición en la competencia global de IA, un campo en el que los grandes del sector tecnológico lanzan continuamente innovaciones.

Meta ha lanzado simultáneamente los modelos Llama 4 Scout, Llama 4 Maverick y Llama 4 Behemoth. Según la compañía, estos modelos marcan el comienzo de «una nueva era». Una de las novedades destacadas es que Llama 4 muestra una mayor apertura para discutir temas políticos y sociales controvertidos, y se comporta de manera «más equilibrada» ante preguntas delicadas. «Estamos satisfechos con los avances logrados hasta ahora y mantenemos nuestro compromiso de reducir los sesgos en nuestros modelos», afirmaron desde Meta.

Los tiempos están cambiando. «Cuando se lanzó ChatGPT, estábamos en un período de alta sensibilidad respecto a temas de racismo, sexismo, entre otros, lo que en Estados Unidos se denomina ideología woke. Por eso, los modelos de IA creados eran extremadamente estrictos para evitar críticas», explica Miguel Ángel Román, cofundador del Instituto de Inteligencia Artificial.

Como señala Román, recientemente el movimiento woke ha perdido algo de ímpetu, lo que ha llevado a los laboratorios de IA a suavizar las restricciones en sus modelos. «Esto no significa que los modelos sean inseguros, ya que estas empresas cuentan con grandes departamentos dedicados a la seguridad. Sin embargo, hay un cambio en la percepción, tendiendo hacia modelos menos restrictivos y colocando más responsabilidad en los usuarios para que hagan un uso adecuado», añade.

«La motivación para esta apertura podría ser atraer a más usuarios, lo que se traduce en más ingresos. Pero siendo optimistas, podemos esperar que después de un período de prueba más libre, venga moderación y algo de regulación», opina Antonio Gaitán, director del Máster en Ética de la IA UC3M-CSIC y líder del proyecto Digi_morals de la Fundación BBVA 2022-2024.

De cualquier manera, Gaitán menciona que, aunque los modelos fueran cautelosos al detectar preguntas subjetivas, siempre ha sido posible reestructurar las preguntas para obtener respuestas más cargadas de opinión. Además, destaca que las fronteras en estos temas a veces no son tan claras como podrían parecer.

«Muchos argumentos morales se basan en premisas empíricas, y entre los hechos o la evidencia hay una gran carga política. Por ejemplo, en debates sobre el cambio climático o los vehículos eléctricos. Aunque hay un consenso científico, la utilización de la evidencia en esos debates es políticamente significativa en ciertos círculos», explica.

Mientras tanto, Damián Blasi, investigador ICREA en el Centro de Cerebro y Cognición de la Universidad Pompeu Fabra, señala otro aspecto relevante: «Participé en un estudio donde evaluamos algunos LLM comerciales utilizando pruebas estándar de psicología. Observamos que estos modelos reflejan valores que tienden a alinearse más con los de los EE. UU., lo cual es crucial porque la forma de presentar información o noticias está impregnada de valores. Hasta hace poco, las principales fuentes eran personas o instituciones conocidas o con ideologías identificables».

Leer  ¡Impactante IA anticorrupción de Sánchez!: Requiere reforma de tres leyes orgánicas.

Riesgos y beneficios potenciales

La estrategia de Meta recuerda inevitablemente a Grok, la IA de Elon Musk, conocida por su falta de límites éticos en la generación de respuestas o imágenes. Según Musk, quien ha criticado la ideología woke, Grok es el mejor chatbot mundial, aunque algunos expertos, como Ramón López de Mántaras, pionero de la IA en España y Europa, han criticado al modelo por su falta de razonamiento y al propio Musk por su excentricidad.

«No creo que Grok sea el responsable de este cambio de tendencia en los modelos de IA. Pero para entrenarlo, usaron Twitter, una plataforma con una amplia diversidad de opiniones. Una crítica común es que otros modelos de IA representaban una perspectiva de Internet que, en las últimas décadas, podría haber tenido un sesgo más hacia la izquierda. Por eso, ahora las compañías están intentando compensarlo», indica Román, refiriéndose a Meta.

Para Mark Coeckelbergh, profesor de Filosofía de los Medios y la Tecnología en la Universidad de Viena, esta nueva orientación tiene ventajas y desventajas: «Es positivo que estos modelos de IA ahora estén entrenados para abordar preguntas más polémicas, siempre que indiquen al usuario que el tema es controvertido y que existen diferentes opiniones al respecto. No obstante, un problema potencial de esta metodología es que podría otorgar una credibilidad indebida a posiciones como el terraplanismo o diversas teorías de la conspiración», comenta.

Gaitán coincide, desglosando los pros y contras: «Es una idea riesgosa, especialmente si no se prueba adecuadamente, y el actual clima de competencia entre desarrolladores no parece permitir esa pausa. La principal razón es que el debate político en redes sociales y foros se ha degradado con el tiempo, por lo que si estos LLM se entrenan con esos datos, probablemente obtendremos posiciones y argumentos políticos exagerados, inclinándose hacia los extremos».

«Sin embargo, también hay aspectos positivos», continúa, «por ejemplo, se han probado modelos de lenguaje que proporcionan información factual en tiempo real, lo que podría ayudar a reducir dinámicas de desacuerdo; también se ha comenzado a estudiar el efecto de chats que reformulan posiciones de consenso en un debate, observando una mayor disposición al acuerdo entre los participantes en esos foros. Aunque la IA no está exenta de sesgos, su potencial podría ser positivo para reformular posiciones o enmarcar debates bien definidos, en contextos específicos de desacuerdo».

IA sin restricciones

«En general, Llama 4 parece muy prometedor. Siendo un modelo abierto, se dice que es el equivalente americano de DeepSeek, pero está demostrando un rendimiento superior en las pruebas iniciales», afirma Román, quien recuerda que en el sitio web Chatbot Arena, que compara diferentes modelos, Llama actualmente ocupa la segunda posición.

Leer  Antonio Turiel advierte: ¡Prevenir desastres cuesta, pero es necesario!

«Las primeras versiones de Llama funcionaban bien en inglés, pero no tan bien en otros idiomas. Ahora el modelo es multilingüe y multimodal, ya que también permite generar imágenes. Las perspectivas son muy positivas. Hay muchas empresas que no pueden usar ChatGPT porque sus políticas internas no les permiten enviar información fuera de su estructura interna. Y con DeepSeek, al ser chino, muchos no se fían completamente. Así que Llama puede ser extremadamente útil y tener un gran impacto», concluye Román.

Una simple búsqueda en Google muestra que existen diversas IA que afirman no tener restricciones éticas, especialmente en temas relacionados con la pornografía. Por ejemplo, Clothoff, un sitio que permite ‘desnudar’ a cualquier persona. Sin embargo, la mayoría de los chatbots que se presentan de esa manera en realidad sí tienen límites, y hay temas sobre los que no responden.

No obstante, Jordi Juan, socio del área de consultoría tecnológica y ciberseguridad de EY, explicó a El Independiente que sí existen herramientas basadas en IA sin ninguna barrera. Como WormGPT, que en su propia página web indica que fue diseñado «para que no tenga restricciones», y que los usuarios «solo están limitados por su imaginación». Además, Internet está lleno de recomendaciones sobre cómo realizar un jailbreak, que es activar un ‘modo sin restricciones’ en algunas aplicaciones. Aunque, al parecer, las empresas desarrolladoras de estos sistemas actúan rápidamente para parchear cuando detectan brechas de seguridad que lo permiten.

«No se sabe mucho sobre WormGPT. Es una especie de buscador, similar a Google, pero avanzado. Al final, son algoritmos de lenguaje generativo que buscan información disponible en la red. Todo lo que muestran ya está accesible, pero este tipo de sistemas lo hacen mucho más fácil de alcanzar», detalla Juan. «Pero si le pides que te diga cómo crear un virus informático, lo hará. Y si preguntas cómo introducir ese virus en una empresa, te lo explicará paso a paso», argumenta.

En su sitio web, la empresa aprovecha para incluir una cláusula de exención de responsabilidad: «Tenga en cuenta que no toleramos ni recomendamos actividades delictivas con esta herramienta y estamos dirigidos principalmente a investigadores de seguridad para que puedan probar y evaluar el malware y ayudar a sus sistemas a defenderse contra posibles estafas de phishing y malware de IA. Usted es totalmente responsable de los resultados del uso de WormGPT. No nos hacemos responsables si utiliza esta herramienta para hacer algo malo».