Menú

Tecnología Nivel Usuario: La nueva IA de WhatsApp analiza tus conversaciones y emociones

Experto en ciberseguridad alertan del impacto de la nueva IA de Meta en WhatsApp y advierten: "La inteligencia artificial puede mentir".

El audio empezará a sonar cuando acabe el anuncio

Experto en ciberseguridad alertan del impacto de la nueva IA de Meta en WhatsApp y advierten: "La inteligencia artificial puede mentir".
Entrevista a Rafael López, portavoz de Check Point Software | Libertad Digital

La inteligencia artificial ha llegado definitivamente a las aplicaciones que usamos cada día. Y según expertos en ciberseguridad, no lo ha hecho solo para ayudarnos. El despliegue de los asistentes de Meta en WhatsApp, Facebook e Instagram abre la puerta a un nuevo nivel de recopilación de datos personales que, para muchos usuarios, puede pasar desapercibido.

Rafael López, portavoz de la firma de seguridad Check Point Software, advierte de que la integración del modelo LLaMA en WhatsApp supone un cambio significativo en la forma en la que se procesan conversaciones, imágenes y patrones de comportamiento dentro de la plataforma. "Meta sabe dónde estás, cómo te sientes y qué te interesa. Su IA interpreta tus conversaciones y actúa en consecuencia", explica.

Desde abril, WhatsApp incluye un icono azul que activa el asistente de inteligencia artificial. Su objetivo principal es ayudar al usuario, pero Rafael López insiste en que su capacidad para analizar mensajes, fotos, ubicaciones y hábitos emocionales también plantea un riesgo para la privacidad.

"No nos quitan datos: los entregamos sin darnos cuenta"

El especialista señala que muchos usuarios desconocen qué información comparten realmente cuando interactúan con estos sistemas. No solo se recopilan mensajes o archivos: la IA puede aprender del tono, la urgencia y los intereses detectados en cada conversación.

En algunos sectores ya se han detectado consecuencias económicas. Según Check Point, existen compañías, incluidas aerolíneas, que ajustan precios en función del nivel de necesidad que perciben tras analizar el lenguaje del usuario.

Deepfakes y estafas: la otra cara de la inteligencia artificial

Además del uso corporativo, los expertos alertan de un riesgo creciente: los ciberdelincuentes también están utilizando inteligencia artificial avanzada para suplantaciones, estafas y creación de contenido falso. "La IA siempre responderá, aunque no sea verdad. Por eso hay que verificar todo", señala López.

Los ataques ya no se limitan a correos fraudulentos. Deepfakes de figuras conocidas —incluidos creadores digitales populares entre jóvenes— comienzan a aparecer en estafas que buscan generar confianza inmediata.

Meta y la privacidad: una frontera cada vez más fina

El modelo de negocio de las grandes plataformas vuelve a estar en el punto de mira. Meta ha ofrecido opciones de pago para limitar el uso de datos personales, una práctica cuestionada por expertos en privacidad.

Aunque la normativa europea ofrece garantías, López asegura que no es suficiente para impedir que anuncios fraudulentos o sistemas abusivos permanezcan activos semanas antes de ser eliminados.

También recuerda que el asistente en WhatsApp puede desactivarse, pero muchos usuarios desconocen cómo hacerlo.

Un consejo para usuarios: información, no miedo

El mensaje final no es una llamada a abandonar las plataformas, sino a entender lo que implican: "No contamos nuestra vida en voz alta en la calle, pero sí en redes. La clave no es dejar de usarlas: es saber qué compartimos y con quién".

Escucha este programa en cualquier momento y lugar a través de los podcasts de Libertad Digital y esRadio. Descarga nuestra aplicación para iOs o Android, visita nuestra página web en esradio.fm, o encuéntranos en Apple Podcast, Spotify, Podimo, Amazon Music, Youtube o iVoox. ¡No olvides suscribirte!

Este capítulo puede contener información comercial de anunciantes y/o marcas colaboradoras que contribuyen a la creación y difusión de nuestros contenidos. Gracias por colaborar con nuestras marcas colaboradoras.

Temas