Palantir lanza app que rastrea vecindarios para ICE: pone en riesgo a inmigrantes

Por

Desde la llegada de Donald Trump a la Casa Blanca en enero de 2025, la política migratoria de su administración se ha intensificado y con ello han reaparecido prácticas que generan alarma pública: el Servicio de Inmigración y Control de Aduanas (ICE) utiliza una aplicación desarrollada por Palantir para localizar y priorizar detenciones, con implicaciones directas sobre la privacidad y los derechos civiles de residentes y ciudadanos. La revelación, basada en documentos internos y entrevistas, plantea preguntas inmediatas sobre la legalidad y el alcance del rastreo masivo de datos.

Qué hace ELITE y por qué preocupa

La herramienta, bautizada como ELITE (siglas en inglés de Enhanced Leads Identification and Targeting for Enforcement), funciona como una plataforma de búsqueda y priorización: ubica personas en un mapa interno y genera perfiles con puntuaciones que ayudan a decidir a quién detener. No es un simple listado; incluye análisis que ordenan objetivos según distintos criterios, lo que permite planificar operaciones en áreas concretas.

Lo que ha encendido las alarmas es la naturaleza y la combinación de las fuentes de información que alimentan esos perfiles. Reportes periodísticos recientes —entre ellos una investigación de Joseph Cox para 404 Media— indican que ELITE integra datos administrativos, servicios sanitarios y señales obtenidas por algoritmos que rastrean actividad en internet.

Fuentes y métodos

La aplicación combina múltiples orígenes de información y añade procesos de verificación humana contratada por la agencia. Entre sus prácticas destacan:

  • Cruce de bases administrativas: registros de salud, programas públicos de asistencia y datos de inmigración.
  • Monitoreo digital: análisis automatizado de redes sociales y otras huellas en línea para completar perfiles.
  • Verificación en terreno: investigadores privados y contratistas que confirman direcciones y circunstacias antes de ejecutar detenciones.
  • Sistemas de priorización: puntuaciones numéricas (0–100) que ordenan objetivos y filtros que pueden segmentar por factores demográficos.

Cómo opera en la práctica

Agentes consultan el mapa interno para seleccionar individuos o delimitar perímetros urbanos donde concentrar una acción. Según las fuentes consultadas, las redadas pueden agrupar hasta cincuenta objetivos por operativo y las decisiones se apoyan en indicadores de confiabilidad que ofrece la propia aplicación.

Detrás de la herramienta hay contratos millonarios con empresas privadas que proveen capacidad técnica y verificación; el uso combinado de algoritmos y comprobaciones humanas busca reducir errores, pero también multiplica el flujo de datos sensibles que circulan entre agencias y terceros.

Consecuencias legales y críticas

Organizaciones de derechos civiles y expertos en privacidad advierten sobre el riesgo de usos indebidos: la unificación de registros originalmente recopilados con fines distintos puede derivar en decisiones punitivas sin consentimiento ni control judicial claro. Además, hay antecedentes internacionales que alimentan el rechazo a la firma responsable.

  • Incompatibilidades regulatorias: Palantir ha sido objeto de investigaciones y sanciones en Europa por problemas con el cumplimiento del Reglamento General de Protección de Datos (GDPR).
  • Rechazo institucional: tribunales y entidades públicas, incluida la suspensión de colaboraciones en algunos casos, han cuestionado la trazabilidad y auditoría de sus plataformas.
  • Riesgo de errores: ya se han documentado detenciones erróneas y situaciones que implican separación de familias y muertes bajo custodia en operativos precedentes.

Quién es Palantir y cuál es el debate público

Palantir Technologies, empresa tecnológica con contratos extensos con administraciones gubernamentales, ha crecido por su capacidad para integrar grandes volúmenes de datos en productos orientados a seguridad e inteligencia. Eso le ha acarreado beneficios económicos pero también un escrutinio constante por la opacidad de sus sistemas y por declaraciones públicas de sus directivos que han avivado la polémica.

En varios países europeos, el uso de su software en proyectos sanitarios y policiales motivó cuestionamientos legales; jueces y reguladores llegaron a señalar la falta de garantías suficientes para auditar cómo se almacenan y procesan los datos.

Cómo reaccionan comunidades y defensores

Ante el uso de herramientas tecnológicas para identificar a personas, comunidades y organizaciones civiles han recurrido a herramientas de comunicación cifrada y a redes de apoyo local para alertar sobre redadas y coordinar asistencia legal. También han impulsado demandas y peticiones para exigir mayor transparencia en los contratos y auditorías independientes.

Al mismo tiempo, fuentes oficiales defienden la necesidad de herramientas que permitan a las agencias gestionar información compleja; el debate sobre límites, supervisión y rendición de cuentas es, por tanto, la pieza central de la controversia.

Qué debe saber el público ahora

  • Relevancia inmediata: la expansión de este tipo de sistemas afecta no solo a personas en situación migratoria irregular, sino también a ciudadanos que pueden aparecer en bases de datos por motivos administrativos.
  • Riesgo de tercerización: los datos sensibles que alimentan estas plataformas circulan entre agencias y contratistas privados, lo que complica la trazabilidad y la responsabilidad legal.
  • Vías de protección: organizaciones legales recomiendan documentar detenciones, evitar compartir información innecesaria en plataformas públicas y recurrir a apoyo legal en caso de intervención.

Las revelaciones sobre ELITE reabren el debate sobre hasta qué punto las herramientas de análisis de datos deben integrarse en actuaciones policiales y migratorias, y sobre qué salvaguardas son necesarias para proteger derechos fundamentales. Con la política migratoria en primera línea de la agenda pública, la discusión sobre transparencia, supervisión judicial y límites tecnológicos no es sólo técnica: es una cuestión de garantías democráticas.

4.2/5 - (21 votos)
Leer  ¡Revolucionario ChatGPT crea imágenes con un clic!: Descubre la nueva función que lo hace posible

Deja un comentario

Partages