Comunicación y ética en tiempos de inteligencia artificial: desafíos y dilemas emergentes
12/06/2025

La inteligencia artificial (IA) está transformando a gran velocidad el trabajo de los profesionales de la comunicación y las relaciones públicas. Desde la generación automática de contenidos hasta el análisis de audiencias y la personalización de mensajes, las herramientas basadas en IA prometen mayor eficiencia, precisión y capacidad de adaptación. Sin embargo, estos avances también abren un debate necesario: ¿cuáles son los límites éticos del uso de la IA en este ámbito?
Este es el párrafo introductorio del artículo que Chat GPT me ha arrojado en cuestión de segundos cuando le he pedido ayuda con una tarea con las siguientes premisas: Hola Chat. Necesito escribir un artículo sobre la IA aplicada a la comunicación para el blog de la página del Máster en Dirección de Agencias de Comunicación y Relaciones Públicas de la Universidad Autónoma de Barcelona, del que soy alumno. El artículo tiene que ser en formato blog on-line, de unos cuatro párrafos y la temática que quiero abordar son las cuestiones éticas del uso de la IA en profesiones relacionadas con el mundo de la comunicación. El resto del artículo puede ser leído al final de estas líneas*.
La velocidad a la que se desarrolla esta herramienta, que era prácticamente desconocida para el público hace no más de dos años, nos lleva a plantearnos numerosas cuestiones éticas en relación a su uso y a las consecuencias que tendrá no sólo en la generación de contenido nuevo, sino también en la modificación de la propiedad intelectual ya existente. Además, estamos asistiendo a cambios significativos en el ecosistema del mundo laboral en general y, por consecuencia, en el campo que nos concierne a los estudiantes y profesionales del mundo de la comunicación en particular.
Según un estudio del área de Inteligencia Artificial del banco estadounidense Goldman Sachs, 300 millones de empleos a escala mundial serán reemplazados por la IA en 2030. El mismo informe indica que el 25% de los trabajos rutinarios automatizados ya son realizados de manera robótica por esta herramienta. Por su parte, Acas (organización independiente financiada por el gobierno del Reino Unido que se encarga de ofrecer asistencia en cuestiones laborales a ciudadanos y empresas) ha determinado en uno de sus más recientes estudios que el 26% de trabajadores del país tienen miedo a que la IA suponga pérdidas considerables de empleos.
Y aunque son muchos los expertos del campo de la comunicación que argumentan que la IA es una herramienta complementaria y debe integrarse en las prácticas de agencias y departamentos de comunicación, son muchas las evidencias de que sí podría acabar suponiendo una amenaza considerable. The Guardian publicó una crónica el pasado mes que incluía entrevistas a varios profesionales que relataban sus situaciones personales, y cómo han terminado en la pérdida del empleo que ocupaban hasta hace unos meses. Es el caso de la copywriter Annabel Beales (49), que escribía contenido para la web de un centro de jardinería. Annabel empezó a notar que cada vez recibía un volumen menos importante de tareas mientras que escuchaba que a algunos de los compañeros del departamento se les sugería usar Chat GPT para la generación de textos para la página web. Annabel mostró a su superior la preocupación por su puesto de trabajo, quien después de asegurarle que su empleo no corría peligro, la despidió fulminantemente seis semanas después. Por suerte, pudo encontrar un trabajo en otro sector relativamente pronto, pero eso no cambia lo devastador de las consecuencias que tuvo en su vida personal: “perdí el trabajo de mis sueños y siento que perdí todo el tiempo que me tomó prepararme para llegar hasta allí. Ahora, visito la web por la que solía trabajar y siento tristeza por el contenido poco sustancial y eminentemente factual que se ofrece..”
El caso de Annabel, aunque pueda parecer preocupante, quizás no deje en evidencia la cuestión de la propiedad intelectual de manera tan clara como lo hace el de Richie Tavake, actor de doblaje de San Francisco. Cuenta Richie en su entrevista que después de 10 años de entrenamiento y dedicación al doblaje, está empezando a encontrarse con situaciones en las que los productores de los videojuegos, series o películas en las que trabaja, utilizan IA para emular su voz y la de otros profesionales para así reducir los tiempos y costes de producción del doblaje de dichas obras. El actor muestra su preocupación y disconformidad con estas prácticas, ya que no sólo pueden incluir errores de pronunciación o dicción, si no que además estas traducciones automatizadas carecen del trasfondo y pertenencia identitaria y cultural por las que se selecciona a ciertos actores de doblaje para cumplir con ese tipo de roles. Otro ejemplo en este caso es la polémica vivida el pasado mes de marzo, cuando se popularizó el uso de IA para transformar imágenes de cualquier tipo en viñetas dibujadas al estilo de Hayao Miyazaki, autor del prestigioso estudio Ghibli.
No obstante, actualmente es poco el avance en materia legal que se ha conseguido para regular tanto estos como otros fenómenos que se desenvuelven desde la llegada de la IA. En agosto de 2024 se inició la entrada en vigor de la Ley de IA, que estará plenamente aplicada en agosto de 2026. La ley incluye una categorización de riesgos de uso de la IA en cuatro niveles (riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo). En los dos primeros niveles, que son en los que se aplican medidas activas de regulación, sólo se incluyen situaciones relacionadas con la puntuación social, la ciberseguridad, el reconocimiento de emociones o la identificación biométrica, por dar algunos ejemplos. Poca o nula regulación se incluye en materias de copyright y de seguridad y mantenimiento de puestos laborales. Además, se teme que la velocidad a la que avanza esta herramienta dé poco margen de maniobra de reacción a gobiernos, instituciones y actores sociales relevantes.
En síntesis, el uso de la IA por parte de grandes empresas para generar contenido, productos y servicios, tal como hemos visto en los casos narrados anteriormente, abre una cuestión sobre el valor de la propiedad intelectual y de los servicios que se ofrecen por las mismas ¿Para qué pagar una subscripción a una revista online de contenido de un tema en específico si el artículo puede haberlo generado un ordenador de manera automática? ¿Cómo corroboramos quién o qué genera el contenido que consumimos si las propias empresas que deberían ponerlo en valor son aquellas que deciden recortar en gastos para ampliar el márgen de sus beneficios?
En este panorama preocupante, a la vez que frenético y decisivo, no es para nada sencillo imaginar en qué situación nos vamos a encontrar en los siguientes dos, tres o cinco años. Es capital instar a las instituciones y organizaciones políticas y sindicales a tomarse este fenómeno con la importancia y relevancia que tienen para nuestra sociedad, economía y bienestar.
*Versión del artículo generada por Chat GPT
Uno de los principales desafíos es la transparencia. Si una nota de prensa, un artículo o incluso una imagen ha sido generada parcial o totalmente por una IA, ¿debe comunicarse al público? ¿Hasta qué punto podemos considerar auténtico un mensaje creado por una máquina? La credibilidad, uno de los pilares de la comunicación, podría verse comprometida si se pierde la distinción entre lo humano y lo automatizado.
Además, está el riesgo de sesgos algorítmicos. Las IAs aprenden de datos previos y, por tanto, pueden reproducir prejuicios existentes en la sociedad. En manos de agencias o departamentos de comunicación, esto puede derivar en mensajes discriminatorios, excluyentes o poco éticos, incluso sin intención consciente. La responsabilidad profesional debe incluir la supervisión crítica de los contenidos generados por IA, así como la formación continua para entender sus limitaciones.
Por último, la automatización extrema podría reducir la diversidad de voces en el ecosistema mediático. Si confiamos en exceso en los mismos modelos de lenguaje y análisis, podríamos caer en una homogeneización de los discursos. Por ello, el verdadero reto no es solo incorporar la IA, sino hacerlo con criterio, ética y un enfoque humano. En un sector que se basa en generar confianza, la inteligencia artificial debe ser una herramienta, no un sustituto del juicio profesional.
Por Jan Carrillo Mañach
GRUPO 4