≡ Menu

2da parte: Crisis de reputación en 2023: Cuando las IA generativas meten la pata y las empresas pagan el precio

Crisis de reputación y ética digital a la luz de las inteligencias artificiales generativas mandomando

Crisis de reputación y ética digital a la luz de las inteligencias artificiales generativas

Antes de comenzar, ¿ya has escuchado el último episodio del podcast? #SalvavidasDigitales, Año 1


 

Previamente…

etica digital a la luz de las inteligencias artificiales generativas mandomando 2

¿Cómo abordar el futuro de la ética digital en 2023 con el auge de las inteligencias artificiales generativas? -1era parte: Con la primera parte de la serie retomamos un post de 2016 sobre inteligencia artificial y la necesidad de protocolos de ética digital para traerlo a la luz actual en medio de un hype bestial, que mezcla churras con merinas llamando IA a cualquier algoritmo y con los mass media metiendo tecnofobia sin ver que el desastre está por otro lado.

 


La UE obliga a los generadores de imágenes de IA a divulgar fotos protegidas por derechos de autor

Empecemos por lo más actual en normativa: El Ley de IA de la Unión Europea ha agregado una nueva disposición que obliga a las empresas de IA generativa a divulgar material protegido por derechos de autor dentro de los conjuntos de datos que utilizan.

Según a un informe de Reuters, empresas como Midjourney tendrán que revelar el material utilizado para entrenar sus modelos de inteligencia artificial (IA). Será lo mismo para los modelos de lenguaje generativo como ChatGPT.

Sin embargo, los textos con derechos de autor son más ambiguos que las fotos con derechos de autor, esta última es en blanco y negro en términos de propiedad intelectual.

El modelo de texto a imagen Stable Diffusion utiliza el conjunto de datos de código abierto LAION, que se puede buscar públicamente y ha llevado a demandas en su contra por Getty Images.

Sin embargo, compañías como Midjourney y DALL-E no divulgan públicamente sus fuentes de datos. Pero ya la primera ha admitido haber usado «cientos de millones» de imágenes sin consentimiento.

La Ley de IA de la UE obligaría a Midjourney y DALL-E a revelar su conjunto de datos, lo que inevitablemente revelaría millones de fotos con derechos de autor tomadas por fotógrafos profesionales y aficionados.

¿La UE ha estado en la frontera de la regulación de la tecnología de IA?: Digamos que la propuesta de la UE fue «discreta» en lugar del enfoque de «prohibir primero y hacer preguntas después» propuesto por algunos.

Interpretación derivada de usar comercialmente contenido de origen ilegal

Uso comercial de imágenes editadas, procesadas en video, derivadas de prompts de diversas herramientas generativas via Inteligencia artificial …

¿Te has perdido? Yo, también.

Cuando en Adobe Photoshop se retoca una foto con uso de filtros cuyo algoritmo tira de IA (por ejemplo, para crear cielos de la nada) sabemos (al menos quienes leemos la letra pequeña de los disclaimers) que Adobe sí tiene una licencia vinculante con los creadores y de esta forma, los contenidos tienen un soporte legal mayor. Mayor, que no absoluto.

¿Qué sucede con los filtros de TikTok, de Snapchat, de Instagram que tiran de imágenes de terceros? ¿Y con la música?

Aquí lo responsable sería -como siempre- tener desarrollados y con recursos los protocolos de crisis para la comunicación de contenido derivado destinado a redes sociales. Dicho de una forma más sencilla, tener preparada una guía para cuando se genere un problema de reputación cuando te acusen de robar contenido de terceros.

Ésta no es la primera vez que Inditex se mete en problemas por el plagio de diseños. Y no solo lo hace con grandes firmas de lujo sino también con pequeñas marcas artesanales y artistas e ilustradores independientes.

Y por experiencia, muchas, muchísimas grandes marcas y las empresas que están detrás pasan de tener protocolos de crisis, como el caso de la ilustración. A Inditex la han pillado varias veces copiando material de diseñadoras y de otras firmas y hasta la última vez que estuve invitado a dar clases por allí en Santiago, seguían pasando del tema. Algo que se repite en la gran industria automovilística (¿hace falta dar nombres?), en la farmacéutica y en empresas de Estado.

Aqui viene el sambenito de «pero sólo son empresas grandes…». Sí, son empresas grandes, son las empresas con las que principalmente trabajo y que conozco a fondo y sirven para explicar la problemática a todos. Con las empresas pequeñas, prefiero decir que colaboro, esto es, que las ayudo. Y también las conozco profundamente, estén en España, en Alemania o en Argentina. Tienen mucho en común: su fragilidad.

Donde en las grandes empresas encontramos 5 profesionales capacitados para hacer UNA tarea, en una PyMe encontramos 5 tareas para hacer por UNA persona. Eso es una prueba de fragilidad, de dificultad de reacción. Por eso mismo es imprescindible hablar de casos de crisis de grandes empresas e interpretarlos luego en resoluciones con recursos mínimos (algún que otro video sobre protocolo de crisis para pequeñas empresas he hecho, uno, dos, seis…)

 

 

Fake news y desinformación: IA generativas, ¿aliadas o enemigas de la verdad?

Que sí, que hay preocupaciones sobre el papel de las IA en la difusión de noticias falsas y desinformación.

¿Más que las que ya tenemos con los medios sociales desde hace 15 años? ¿Más que lo sugerido por los rankings que miden la independencia de los medios de la presión de lobbies y de administraciones políticas? ¿Más que la utilización de granjas de servidores y bots de diseminación de desinformación para manipular la opinión pública por parte de potencias globales?

Es sólo una pregunta. Es para un amigo.

Por un lado, estas tecnologías pueden facilitar la creación y difusión de contenidos falsos y engañosos, especialmente cuando se utilizan para generar imágenes y textos que distorsionan la realidad. Por otro lado, también tienen el potencial de combatir la desinformación al detectar y desacreditar noticias falsas.

Las IA generativas pueden ser fácilmente manipuladas para crear contenido falso, como imágenes y videos deepfake, que son cada vez más difíciles de distinguir de los materiales auténticos. Quien haya jugado un poco con los filtros de TikTok ya lo habrá visto (y no digo nada si ya estás usando Adobe Firefly en la prueba de Premiere). Esto puede tener un impacto perjudicial en la percepción pública de la realidad y dar lugar a la polarización y desconfianza en las instituciones y los medios de comunicación. Además, el uso de IA generativa en la creación de contenido puede resultar en la apropiación indebida de material protegido por derechos de autor, como ya mencioné previamente.

Sin embargo, también hay avances en el campo de la IA que se están utilizando para combatir la desinformación. Por ejemplo, algunas IA están diseñadas para detectar noticias falsas y contenido engañoso, identificando patrones y discrepancias que podrían indicar la falsedad de la información. Estas herramientas pueden ser utilizadas por periodistas, investigadores y ciudadanos para verificar la autenticidad de las noticias y combatir la propagación de información errónea. De hecho, las estamos usando en las escuelas de negocios y en la universidad para ciertos textos sospechosamente bien redactados.

Sobre el punto anterior, un detalle: no se trata de prohibir a un alumno el usar IA, se trata de conseguir el objetivo de enseñar, incluso a usar correctamente las IAG para mejorar el trabajo (aportación de valor incremental versus valor total)

En todo caso, el debate sobre el papel de las IA generativas en la desinformación y la verdad es complejo y no puede reducirse a una simple dicotomía de «aliadas» o «enemigas». Es crucial reconocer que el desarrollo y uso de estas tecnologías tiene tanto riesgos como oportunidades, y que es responsabilidad de todos los actores involucrados -desde los desarrolladores y las empresas que las implementan hasta los usuarios finales- garantizar que se utilicen de manera ética y responsable.

La Ley de IA de la UE es un paso importante en la dirección correcta, ya que busca regular las IA generativas y proteger los derechos de los ciudadanos, al mismo tiempo que fomenta la innovación y el crecimiento económico. Sin embargo, es fundamental que las regulaciones y leyes evolucionen continuamente para adaptarse a los rápidos avances en el campo de la IA y garantizar que se aborden adecuadamente los riesgos y desafíos emergentes.

En última instancia, la pregunta sobre si las IA generativas son aliadas o enemigas de la verdad no tiene una respuesta única, sino que depende de cómo se utilicen y se regulen estas tecnologías. Lo que es seguro es que la colaboración y el compromiso de todas las partes interesadas serán fundamentales para garantizar que las IA generativas sean utilizadas de manera responsable y en beneficio de la sociedad en su conjunto.

La cuestión que toca aquí, con foco en la comunicación corporativa es ¿cómo hacemos para aprovechar las IAG correctamente minimizando riesgos de crisis de reputación?

Gestionando crisis en redes sociales: Apagar incendios causados por IA generativas traviesas

Protocolos, protocolos, protocolos. ¿Cómo te aseguras que un texto está bien traducido, mediante, por ejemplo, Google Translator, cuando conoces bien ambos idiomas, origen y destino? Pues, haces que se genere A->B, luego B->A y verificas que se mantiene el significado de A en una lectura lenta, si falla y la A generada es incorrecta, corriges B manualmente para que coincida con la A original. Algo tan simple como este ya es un protocolo de crisis.

Si se ha incrementado el riesgo de crisis de reputación para empresas y usuarios, ya que estas tecnologías pueden generar contenidos inapropiados, ofensivos o incluso difamatorios, para enfrentar estas crisis se requiere de una estrategia sólida y recursos para manejar eficazmente los incendios causados por las IA generativas traviesas.

En primer lugar, es fundamental contar con un plan de contingencia para la comunicación en redes sociales que incluya protocolos específicos para enfrentar situaciones de crisis relacionadas con el uso de IA generativas. Estos protocolos deben abordar cómo identificar y evaluar el alcance del problema, quiénes serán los responsables de gestionar la crisis, y cómo comunicarse con los afectados y el público en general.

La transparencia y la rapidez en la respuesta son claves para apagar incendios en redes sociales. Las empresas deben reconocer públicamente el problema y disculparse de manera sincera, además de explicar las medidas que se están tomando para solucionar la situación y evitar que vuelva a ocurrir. También es importante monitorear de cerca la reacción del público y responder a las preocupaciones y preguntas de manera oportuna y empática.

Asimismo, es esencial revisar y ajustar las políticas y prácticas internas en relación con el uso de IA generativas. Esto puede incluir la implementación de mecanismos de control y supervisión de los contenidos generados por IA antes de su publicación, así como la capacitación de los empleados en el uso responsable y ético de estas tecnologías. Además, las empresas pueden considerar colaborar con expertos externos en el campo de la IA para garantizar que sus algoritmos y modelos estén diseñados de manera que minimicen los riesgos de generar contenido problemático.

Por otro lado, es crucial que las empresas trabajen en estrecha colaboración con las plataformas de redes sociales para identificar y eliminar rápidamente los contenidos generados por IA que puedan causar daño a su reputación o a terceros. Esto puede incluir la adopción de herramientas de moderación de contenido automatizadas y la colaboración con las plataformas para desarrollar soluciones específicas para combatir la desinformación y los contenidos inapropiados generados por IA.

En resumen, gestionar las crisis en redes sociales causadas por IA generativas traviesas requiere de una combinación de estrategias proactivas y reactivas. Las empresas deben estar preparadas para enfrentar estos desafíos mediante la implementación de protocolos de crisis sólidos, la adopción de medidas preventivas y la colaboración con plataformas de redes sociales y expertos en IA. Al hacerlo, podrán proteger su reputación y garantizar un uso ético y responsable de las IA generativas en el ámbito de las redes sociales.

Cierro con el truco con el que abrí el párrafo: genera por IA, revisa, edita, modifica, mezcla, personaliza, actualiza, regenera por IA, haz transformaciones, compara, haz versiones, retoca una vez más, haz que te pertenezca

Como dijera más de una gran artista: «todos los artistas copian, pero sólo los mejores, roban (porque saben cómo robar)»


Fin de la segunda parte: terminará con >>

«3ra parte: Educación, concienciación, ética y transparencia en IA generativas para salvar al mundo de un apocalipsis tecnológico»

View all contributions by

En comunicación estratégica desde 1994 y en marketing digital desde 2001. Dirijo Polaris MNGM, cofundé Incúbame, creé mas de cinco postgrados, doy clases en UVIC, UPF, EADA, Deusto, Barcelona Activa (2023) Si fuera bueno a las escondidas, me hubiera hecho espía. Pero lucho por la comunicación con transparencia en las instituciones, con el foco en la gestión de la conversaciones en los medios sociales. +info Perfil | Twitter | Linkedin

Suscríbete al blog

Copyright @2008-2024 Armando Liussi Depaoli