Pornografía infantil: X, Meta y TikTok investigadas por contenido generado con IA

Por

El Ejecutivo ha pedido formalmente a la Fiscalía que investigue si las grandes plataformas digitales han permitido, directa o indirectamente, la creación y difusión de material sexual con menores generado por herramientas de inteligencia artificial. La decisión, anunciada este martes por el Consejo de Ministros, activa un mecanismo legal pensado para casos de interés público y abre un frente que puede cambiar las responsabilidades de las redes sociales.

Qué implica la petición del Gobierno

El Gobierno ha recurrido al artículo 8 del Estatuto del Ministerio Fiscal para solicitar a la Fiscalía que abra diligencias sobre posibles delitos relacionados con la pornografía infantil creada o compartida mediante sistemas de IA. Ese precepto permite al Ejecutivo instar al Fiscal General a impulsar actuaciones cuando existe un riesgo para el interés público.

La medida no es meramente simbólica: sitúa al problema en la agenda judicial y obliga a las autoridades y a las plataformas a dar explicaciones públicas sobre los mecanismos de detección, moderación y retirada de contenidos.

Plataformas bajo la lupa

Según el anuncio, la investigación se centrará en las principales redes sociales, entre las que se mencionan de forma prioritaria X, los servicios de Meta (Facebook e Instagram) y TikTok. No se han citado expresamente aplicaciones como Telegram, aunque en semanas previas algunas redes mostraron un volumen destacable de material problemático.

Leer  Samsung revoluciona: Presenta el primer monitor OLED de 500 Hz del mundo

En paralelo, persiste la incógnita sobre si la Fiscalía incluirá en su examen aplicaciones de mensajería como WhatsApp, donde en ocasiones se han detectado cadenas y grupos que distribuyen material de este tipo, como ocurrió en un caso ocurrido en La Rioja.

Dificultades técnicas y legales

Determinar responsabilidad cuando interviene la IA plantea retos concretos. Las herramientas generativas pueden producir imágenes o vídeos que parecen reales; distinguir entre contenido fabricado y material que implica abuso real requiere peritajes especializados y colaboración internacional.

Además, la línea entre lo que crean usuarios con fines artísticos o de broma y lo que constituye un delito no siempre es clara, lo que complicará las decisiones sobre si perseguir legalmente a plataformas, moderadores o usuarios individuales.

  • Alcance de la investigación: podrá limitarse a las prácticas de las empresas o ampliarse a usuarios y moderadores.
  • Medidas provisionales: solicitudes de retirada urgente de contenidos y requerimientos de información a las plataformas.
  • Cooperación internacional: clave por la naturaleza transfronteriza de los servicios digitales y la localización de servidores.
  • Desafíos forenses: peritajes avanzados para identificar si una imagen es sintética y su origen.

Posibles consecuencias

Si la Fiscalía encuentra indicios, podría derivarse a procedimientos penales, sanciones administrativas o requerimientos regulatorios que obliguen a las plataformas a reforzar filtros y políticas de prevención. También es probable que el caso reactive debates parlamentarios sobre normas específicas para la IA en contenidos sensibles.

No obstante, los resultados no serán inmediatos: la apertura de diligencias es el primer paso de un proceso que exige recopilación de pruebas, solicitudes de información y, en su caso, coordinación con autoridades de otros países.

Mientras tanto, la sociedad civil y varias organizaciones de protección a la infancia estarán atentas a cómo se traduce esta actuación en medidas concretas que protejan a menores y garanticen transparencia sobre los algoritmos y controles empleados por las plataformas.

El Consejo de Ministros aprobará formalmente la solicitud y, a partir de ahí, la Fiscalía decidirá el alcance y el ritmo de las pesquisas. Para los usuarios y las familias, la clave es que la investigación aporte claridad sobre quién responde cuando la tecnología facilita la creación de materiales dañinos y qué herramientas existen para evitarlos.

4.8/5 - (19 votos)

Deja un comentario

Partages