Anthropic ha comunicado que utilizará tus interacciones con Claude para perfeccionar sus modelos de inteligencia artificial. La empresa ha modificado sus políticas de uso incluyendo nuevas disposiciones que le permiten guardar los datos de los usuarios por un periodo de hasta cinco años y usarlos para entrenamiento. Estos cambios se aplicarán a finales de septiembre, momento en el cual tendrás que decidir si los aceptas.
Al abrir la aplicación de Claude o iniciar el chatbot a través de su sitio web, te encontrarás con un anuncio sobre una actualización en los Términos del Consumidor. Esta actualización presenta una opción para contribuir a la mejora de Claude, indicando que permites el uso de tus conversaciones y sesiones de código para optimizar los modelos de Anthropic.
Esta función, que se habilita automáticamente, significa que la empresa utilizará las transcripciones de tus diálogos con la IA, incluyendo Claude Code. Es posible desactivar esta opción en dicha ventana antes de aceptar los nuevos términos o más tarde desde las configuraciones de privacidad de tu cuenta.
Podemos utilizar tus Entradas y Salidas para entrenar nuestros modelos y mejorar nuestros Servicios, a menos que decidas no participar a través de la configuración de tu cuenta. Incluso si decides no participar, utilizaremos Entradas y Salidas para perfeccionar el modelo cuando:
- Tus conversaciones sean seleccionadas para revisión de seguridad con el objetivo de mejorar nuestra capacidad para detectar contenido nocivo, hacer cumplir nuestras políticas o avanzar en la investigación de seguridad de IA.
- Nos hayas informado explícitamente sobre los materiales (por ejemplo, a través de nuestros sistemas de retroalimentación).
Cómo prevenir que Anthropic utilice tus charlas con Claude para entrenar su IA
Los nuevos Términos de Consumidor serán efectivos a partir del 28 de septiembre de 2025, pero los usuarios ya pueden aceptarlos desde ahora y permitir que Claude acceda a su información. Si aceptaste por error y prefieres que la empresa no utilice tus chats, simplemente accede a la sección de tu perfil, selecciona «Privacidad» en el menú lateral y desactiva la opción «Contribuir a la mejora de Claude». También puedes desactivar los metadatos de ubicación para evitar que la empresa sepa desde dónde utilizas la IA.
Aunque el uso de las conversaciones para entrenar a Claude es opcional, los usuarios deben aceptar una modificación en la política de retención de datos. Anthropic menciona que, debido a mejoras en las protecciones de seguridad, la empresa podrá conservar tu información hasta por cinco años, incluyendo todas las interacciones con sus sistemas.
La actualización de Anthropic se anunció un día después de que la empresa revelara que un hacker utilizó Claude en varios intentos de ataques cibernéticos y fraudes. La compañía descubrió que una persona empleó Claude Code para llevar a cabo una operación de ransomware contra 17 empresas. El delincuente utilizó la IA para determinar la mejor estrategia para extraer datos, calcular el costo de la extorsión e incluso redactar las notas de rescate que aparecerían en los ordenadores de las víctimas.
Anthropic ha publicado un informe sobre este y otros casos en los cuales individuos superaron las barreras de seguridad de la IA para crear malware. La empresa asegura que ha bloqueado las cuentas de los hackers y ha implementado actualizaciones para mitigar y prevenir nuevos intentos.

Hola, soy Carlos, parte del equipo de MuyMac. Me apasiona compartir las últimas novedades en entretenimiento y conectarte con el mundo del cine, la música y la cultura pop.