Durante mucho tiempo, ver un video o escuchar una voz conocida era prueba suficiente de autenticidad. En Chile, esa certeza también se ha ido debilitando. En los últimos meses han circulado videos falsos de figuras públicas promoviendo inversiones milagrosas, audios que imitan la voz de familiares pidiendo dinero con urgencia y mensajes que aparentan provenir de autoridades o jefaturas institucionales. No son montajes artesanales ni simples engaños: son deepfakes, una de las expresiones más inquietantes del uso malicioso de la inteligencia artificial en la actualidad.

La relevancia del fenómeno en el contexto chileno no es menor. Nuestro país tiene altos niveles de bancarización, uso intensivo de WhatsApp y una creciente digitalización de trámites públicos y privados. Ese ecosistema, que facilita la vida cotidiana, también abre la puerta a estafas cada vez más sofisticadas. Hoy, el fraude ya no llega solo como un correo mal escrito o una llamada sospechosa desde un número desconocido, sino como un video convincente o una voz familiar que apela a la confianza construida durante años.

Los deepfakes son contenidos audiovisuales creados o modificados mediante inteligencia artificial para imitar con gran realismo a una persona real. El término surge de la combinación de deep learning y fake, y describe una tecnología capaz de hacer que alguien diga o haga cosas que nunca ocurrieron. A diferencia de las manipulaciones tradicionales, estos contenidos no solo alteran la imagen: reproducen gestos, expresiones, tonos de voz y formas de hablar con una precisión que desafía la percepción humana.

En Chile, como en otros países, este tipo de tecnología ya se ha utilizado en estafas financieras, fraudes de inversión y suplantaciones de identidad. Algunas explotan figuras conocidas para darle credibilidad al engaño; otras se centran en ciudadanos comunes, especialmente adultos mayores, que reciben audios o videollamadas simulando situaciones de emergencia. El efecto es devastador: pérdida de ahorros, daño emocional y desconfianza generalizada en los canales digitales.

Desde el punto de vista técnico, los deepfakes se construyen entrenando modelos de inteligencia artificial principalmente redes generativas adversariales con grandes volúmenes de imágenes, videos o audios reales. En la práctica, basta con material disponible en redes sociales, entrevistas públicas o mensajes de voz para clonar un rostro o una voz. La barrera de entrada es cada vez más baja: herramientas accesibles, algunas incluso gratuitas, permiten generar resultados convincentes sin conocimientos avanzados de informática.

Este escenario plantea un desafío profundo para la sociedad chilena. Si antes el criterio era “ver para creer”, hoy esa regla ha quedado obsoleta. El riesgo no es solo financiero, sino también institucional: llamadas falsas atribuidas a autoridades, instrucciones apócrifas dentro de organizaciones o videos manipulados pueden generar caos, desinformación y pérdida de confianza en las instituciones. No es casual que organismos internacionales y agencias de ciberseguridad hayan emitido alertas específicas sobre este tipo de fraude, reconociendo que la inteligencia artificial ha cambiado las reglas del juego.

Frente a esta amenaza, la detección de deepfakes no puede quedar solo en manos de expertos. Existen señales que, aunque no infalibles, ayudan a reducir el riesgo. La urgencia desmedida es una de las principales banderas rojas: cuando una solicitud exige actuar rápido y en secreto, suele tratarse de un engaño. También es recomendable poner atención a pequeños detalles en la imagen o el audio: movimientos faciales poco naturales, desincronización entre labios y voz, tonos inexpresivos o cambios bruscos en la iluminación pueden delatar una manipulación.

Aun así, la principal defensa sigue siendo cultural más que tecnológica. Verificar por un segundo canal, devolver la llamada usando un número conocido, acordar códigos de seguridad con familiares o equipos de trabajo y desconfiar de solicitudes inesperadas son prácticas simples pero efectivas. En el contexto chileno, donde la confianza interpersonal sigue siendo un valor fuerte, reforzar estos hábitos es clave para evitar que esa confianza sea explotada.

Los deepfakes nos enfrentan a una pregunta incómoda: ¿qué ocurre cuando ya no podemos confiar en nuestros propios sentidos? La respuesta no está en rechazar la tecnología, sino en asumir que su avance exige mayor pensamiento crítico, educación digital y responsabilidad colectiva. En una sociedad cada vez más conectada, protegernos del engaño implica aceptar que la realidad digital puede ser manipulada con facilidad.

Quizás, en la era de la inteligencia artificial, el nuevo principio no sea “ver para creer”, sino ver, dudar y verificar. En Chile, adoptar esa actitud ya no es una recomendación: es una necesidad.

Google News Portal Educa
Síguenos en Google Noticias

Equipo Prensa
Portal Educa