En la Tierra a miércoles, enero 28, 2026

EN EL DÍA DE LA PROTECCIÓN DE DATOS, 29 DE ENERO

IA responsable: Siete claves para que tu marca gane clientes sin comprometer la confianza

PRNOTICIAS CONVERSA CON CRISTINA CANTERO, DATA STRATEGY MANAGER DE VML THE COCKTAIL

“El usuario quiere saber con quién está hablando, no que le “disimulen” una IA como si fuera humana. Y aquí hay un punto importante. Venimos de una etapa en la que los “agentes” eran en realidad chatbots muy rígidos, basados en reglas, con flows cerrados y poca capacidad para resolver. Muchas veces no entendían, repetían la misma respuesta o dejaban al usuario atrapado. Eso erosionó la confianza y creó la sensación de que no funcionaba”

El uso de la Inteligencia Artificial (IA) se ha vuelto parte de nuestro día a día y eso ha influido en cómo nos relacionamos con las marcas. En este contexto, la privacidad y gestión de datos se sitúan como un ámbito clave sobre el que trabajar para seguir avanzando en la madurez de estas soluciones. Y es que según datos de VML THE COCKTAIL, el 66% de la población muestra preocupación por la privacidad de sus datos en el uso de la IA y más de un tercio (36%) sitúa el control total y transparencia sobre el uso de sus datos entre sus principales expectativas al utilizar agentes IA.

Con motivo del Día de la Protección de DatosCristina Cantero, Data Strategy Manager de VML THE COCKTAIL, revela a los lectores de PRNoticias siete claves para que tu marca gane clientes sin comprometer la confianza. En este escenario, la confianza se ha convertido en un factor decisivo para la adopción de soluciones basadas en IA.

Cantero explica que los usuarios no solo valoran la utilidad o la innovación, sino también sentirse seguros, informados y con control sobre sus datos. La falta de transparencia, la opacidad en el uso de la información o experiencias pasadas poco satisfactorias con chatbots han generado fricciones que hoy las marcas deben abordar de forma activa. La buena noticia es que, cuando se comunica bien el uso de los datos y se integran principios de privacidad, seguridad y apoyo humano desde el diseño, la IA no solo no frena la relación con el cliente, sino que puede convertirse en un potente motor de confianza, personalización y fidelización.

1.- ¿Qué deben comunicar las marcas, de forma clara, sobre cómo protegen los datos cuando usan agentes IA?

Las marcas deben comunicar con un lenguaje llano y directo tres puntos claves: qué datos se usan, para qué y con qué garantías de seguridad y cumplimiento. Y no solo por cumplir. Cuando el usuario entiende el “para qué” se utilizan sus datos, está más dispuesto a compartir información, lo cual mejora la calidad del dato y permite construir experiencias más personalizadas y útiles. En nuestro estudio vemos que el 36% de la población sitúa la transparencia y el control como su principal expectativa al usar un agente IA. Si no aclaras esto, la adopción se frena. Si lo haces bien, se acelera y, con ello, el impacto del agente.

2.- ¿Por qué es importante, desde el punto de vista de la confianza y la seguridad, que el agente se identifique claramente como IA?

Porque genera confianza. El usuario quiere saber con quién está hablando, no que le “disimulen” una IA como si fuera humana. Y aquí hay un punto importante. Venimos de una etapa en la que los “agentes” eran en realidad chatbots muy rígidos, basados en reglas, con flows cerrados y poca capacidad para resolver. Muchas veces no entendían, repetían la misma respuesta o dejaban al usuario atrapado. Eso erosionó la confianza y creó la sensación de que no funcionaba. Los agentes actuales no tienen nada que ver con eso, pero el recuerdo de esa mala experiencia sigue presente. Por eso identificarlos desde el principio ayuda a romper ese sesgo, diferenciándolos de los chatbots tradicionales; aclarando qué puede hacer el agente y qué no; y, sobre todo, creando un marco más honesto y seguro. Cuando la experiencia es clara y transparente, el usuario se muestra más receptivo: entiende cómo funciona, qué esperar y dónde están los límites

3.- Dado que el 49% de los usuarios espera poder hablar con un humano, ¿qué aporta esta opción en términos de control y seguridad?

Aporta control real. El usuario siente que tiene una salida si la conversación se complica o si necesita validar algo delicado. También aporta seguridad: en decisiones económicas, médicas o sensibles, la presencia humana refuerza la confianza y legitima la respuesta.

4.- ¿En qué situaciones críticas o sensibles es clave ofrecer apoyo humano junto al agente IA?

    Según datos de nuestro estudio, las situaciones donde los usuarios muestran más fricción a usar IAG son:

    -Salud y bienestar, especialmente en diagnósticos o interpretación de informes (hasta un 66% nunca usaría un agente IA para esto).

    -Banca y finanzas, especialmente en resolución de incidencias (el 60% nunca lo haría con IA) y gestión de productos (58% no utilizaría la IA)

    -Incidencias complejas o reclamaciones, donde el usuario quiere garantías, trazabilidad y responsabilidad clara.

    -Procesos con riesgo económico como contratación, cambios de tarifa, o decisiones con impacto directo en el bolsillo.

    -Situaciones emocionalmente cargadas, donde la empatía humana evita la frustración.

    -En estas áreas, la IAG puede iniciar o preparar la gestión, pero el modelo híbrido de IA y humano es clave para evitar desconfianza.

    5.- ¿Cómo pueden las marcas personalizar con IA sin comprometer la privacidad ni aumentar los riesgos de seguridad?

    La clave está en una personalización no invasiva, que el estudio identifica como una demanda creciente pero condicionada por garantías claras. Las marcas deben pedir solo los datos estrictamente necesarios para que la personalización se perciba como una ayuda útil y no como una intrusión. Además, deben basarse en datos que el usuario ya ha generado en su relación con la marca, no en inferencias agresivas. Por otro lado, es fundamental explicar siempre el principio give-to-get, mostrando al usuario el valor que obtiene al compartir sus datos. También es clave integrar controles de privacidad visibles, como preferencias de personalización, opciones de encendido y apagado o selecciones explícitas. Por último, es esencial trabajar en entornos de la marca como su propia web o app. Es más según datos de nuestro estudio, los usuarios prefieren interactuar con agentes IA dentro de entornos propios por sensación de mayor seguridad y coherencia (web 30–36%, app 33–36%, muy por encima de WhatsApp o Alexa).

    6.- En sectores como salud o financiero, ¿qué medidas son clave para reducir el miedo al uso indebido de datos por parte de agentes IA?

      Según el estudio, estos son los sectores donde mayor porcentaje de usuarios declara que “nunca usaría IA” para determinadas gestiones. Por tanto, las medidas deben ser robustas y visibles. Esto implica mostrar una transparencia reforzada, explicando de forma clara qué hace la IA y qué no hace, lo cual es especialmente crítico en salud. También es clave operar en entornos totalmente controlados como su app o web, evitando terceros o canales informales. También se requiere una validación humana, especialmente cuando hay riesgo económico, legal o médico; acompañada de explicabilidad, de manera que el usuario pueda comprender por qué la IA ofrece una determinada recomendación.  Además, los protocolos de seguridad deben estar alineados con la regulación, incluyendo controles de acceso, trazabilidad, logging y cifrado de extremo a extremo. Por último, es necesario solicitar los datos mínimos y con consentimiento granular, asegurando que el usuario entienda qué información alimenta cada servicio, evitando cualquier sensación de opacidad.

      7.- ¿Por qué integrar la privacidad y la seguridad desde el diseño del producto es decisivo para escalar el uso de agentes IA?

        Integrar la privacidad desde el diseño es esencial para evitar que el agente se quede atascado en el diseño. Cuando la privacidad no está resuelta desde el inicio, cualquier nueva funcionalidad, aunque sea tan simple como pedir un dato adicional o conectar una fuente interna, requiere validación legal, revisión de seguridad, ajustes de consentimiento y debates sobre propósito de uso. Cuando la privacidad está bien definida desde el diseño, ocurre lo contrario. Hay un marco claro que establece qué datos se pueden usar, en qué condiciones, cómo se deben comunicar y qué límites no se pueden cruzar. Con ese marco, el equipo puede avanzar con agilidad: el agente puede incorporar nuevas capacidades sin tener que reiniciar todo el ciclo de aprobación cada vez. Y esto es lo que realmente habilita la escalabilidad. Porque un agente no escala solo por tener un buen modelo; escala cuando la organización puede evolucionarlo rápido, con seguridad y sin bloqueos internos. En mi experiencia, la privacidad desde el diseño no es un requisito técnico, es una de las diferencias entre un agente que se queda en piloto y uno que se convierte en un canal estratégico. Por ello, siempre involucramos a los equipos legales desde la definición de la solución, analizando la viabilidad de los casos de uso propuestos.

        Seguiremos Informando…

        Noticias relacionadas

        Relacionados Posts

        Premiados de la XX edición de 'Los mejores de PR'

        Noticias recientes

        SUSCRÍBETE

        Suscríbete a nuestro boletín y no te pierdas las noticias más relevantes y exclusivas.