La noticia de que la IA Gemini de Google tendrá, de forma predeterminada, acceso a aplicaciones de terceros como WhatsApp, plantea serias alertas sobre la privacidad. Las apps de mensajería privada se encuentran entre los espacios digitales más sensibles para los usuarios, ya que contienen conversaciones íntimas, datos personales y, potencialmente, información confidencial. Conceder a una herramienta de IA acceso automático a estos mensajes sin un consentimiento claro y explícito socava fundamentalmente la confianza de los usuarios.
Si bien Google afirma que esta función está diseñada para hacer que las interacciones sean más fluidas, la falta de transparencia y el enfoque de exclusión voluntaria en lugar de inclusión voluntaria podrían dejar a muchos usuarios sin saber que sus chats privados están siendo procesados por un sistema de IA.
Desde una perspectiva de ciberseguridad, esto resulta preocupante. Los ciberdelincuentes están aprovechando cada vez más la IA para escalar ataques de ingeniería social y recopilar datos personales. Si los actores maliciosos encuentran la forma de abusar de estas integraciones, podría crearse un nuevo vector para el fraude, el robo de identidad y otras actividades delictivas.
“La IA debería fortalecer la seguridad y la privacidad, no comprometerlas. Conceder acceso por defecto a datos altamente personales sin salvaguardas sólidas establece un precedente peligroso. Las empresas siempre deben centrarse en empoderar a los usuarios con control total y claridad sobre cómo se usa su información, y garantizar que la implementación de la IA ponga la privacidad en primer lugar”, comentó Marc Rivero, analista principal de ciberseguridad en el Equipo Global de Investigación y Análisis en Kaspersky.