≡ Menu

3ra parte: Educación, concienciación, ética y transparencia en IA generativas para salvar al mundo de un apocalipsis tecnológico

Audio disponible en #SalvavidasDigitales

Spotify: 12. Ética digital 2023, tercera y última parte. -. Educación, concienciación, ética y transparencia en inteligencias artificiales generativas para salvar al mundo de un apocalipsis tecnológico.


Previamente, en Ética Digital 2023

Crisis de reputación y ética digital a la luz de las inteligencias artificiales generativas mandomando

2da parte: Crisis de reputación en 2023: Cuando las IA generativas meten la pata y las empresas pagan el precio

Un resumen: El auge de las IAG está cultivando una crisis de reputación y ética digital. La Ley de IA de la Unión Europea obliga a las empresas de IA generativa a divulgar material protegido por derechos de autor que utilizan en sus conjuntos de datos. Bard de Google choca con una pared y empiezan una operación de maquillaje. El uso comercial de imágenes y contenido editados o procesados mediante IA puede causar problemas legales si no se obtienen los derechos correspondientes. Las empresas grandes y pequeñas enfrentan riesgos de crisis de reputación debido al uso de IA generativas.


Concienciación, ética y transparencia en IA generativas

Entendiendo el Potencial Apocalíptico de las Inteligencias Artificiales Generativas

Las Inteligencias Artificiales Generativas (IAG) han irrumpido en nuestra vida cotidiana, transformando la forma en que comunicamos, consumimos información y nos relacionamos con la tecnología. Sin embargo, este rápido avance presenta desafíos éticos inéditos, y si se gestionan de manera incorrecta, podríamos encontrarnos en las etapas iniciales de un «apocalipsis tecnológico» (y no, no es que nos gobiernen las máquinas, sino que reemplacemos unas creencias con otras, en lugar de apostar por la razón, la investigación y el contraste)

La Educación es la primera Línea de Defensa

La educación emerge como la primera línea de defensa contra este posible desastre. Un mayor conocimiento y comprensión de las IAG nos permitirán tomar decisiones informadas y responsables acerca de su uso. La educación en esta área no debe ser exclusiva de los expertos en tecnología, sino que debe extenderse a todos los sectores de la sociedad (ya sabemos que muchos expertos en tecnología se creen habilitados para opinar sobre TODA tecnología y encima hay mucho IA-bro haciendo ruido alrededor)

Promoviendo la Conciencia sobre las Implicaciones Éticas de la IA

En esta era digital, es crucial promover la conciencia sobre las implicaciones éticas de la IA. Esto incluye entender la manera en que las IAG aprenden de nuestros datos, a menudo sin nuestro consentimiento explícito, y cómo este proceso puede conducir a violaciones de privacidad y derechos de autor. Esta lucha es desigual en cada continente. Aquí es imprescindible evitar errores del pasado olvidando lo que significa el peso de la captura de datos y ahora, del uso indebido de contenido. Particularmente Europa.

La Ética en el Núcleo de la IA Generativa

La ética debe estar en el corazón de todas las decisiones relacionadas con las IAG. Esto incluye considerar cuestiones como la propiedad intelectual de las obras creadas por IAG y el respeto por los datos personales. Un enfoque ético asegurará que las IAG se utilicen de manera que beneficie a la sociedad en su conjunto, en lugar de a unos pocos.

Exigiendo Transparencia en la IA

La transparencia es un componente esencial para garantizar un uso ético de las IAG. Las empresas que desarrollan estas tecnologías deben ser transparentes acerca de cómo funcionan, qué datos utilizan y cómo protegen la privacidad de los usuarios. La transparencia también es crucial para garantizar que las IAG no perpetúen ni amplifiquen los sesgos existentes. Esto se traduce en visibilizar el banco de datos y facilitar el acceso a la comprobación.

Desafiando la Apropiación de la Propiedad Intelectual por las IA

Debemos desafiar la noción de que las IAG tienen derechos de autor sobre las obras que crean. Aunque esto puede parecer absurdo, la realidad es que muchos de los algoritmos de aprendizaje profundo de hoy en día están generando obras que plantean cuestiones serias sobre la propiedad intelectual. La creación del prompt, en medio, es el origen y el origen siempre es humano (este sería el axioma moral por usar como piedra angular)

Revisando Nuestra Relación con la Tecnología

Humanizar la tecnología, porque la tecnología sólo puede ser humana y hacernos más humanos. Nuestra dependencia de la tecnología puede llegar a ser esclavizante si no somos cuidadosos. Esa dependencia es una falla cultural, llega antes que la tecnología. Necesitamos revisar esta relación y asegurarnos de que la tecnología, incluyendo las IAG, esté al servicio de nuestras necesidades y no al revés. Mas de una década de consumo de contenidos en smartphones ha disparado a dar como patrón cultural, como norma, a aquello que en 2010 dimos a llamar nomofobia (NO-MObile-PHOBIA, fobia a no tener el dispositivo móvil, WI-FI / señal 5G/4G/3G o cuota)

Encarando el Papel de las IAG en la Cultura de los Memes

La cultura de memes ha demostrado ser una de las formas más influyentes de expresión y comunicación en el entorno digital. Los memes pueden hacerse virales en un abrir y cerrar de ojos, propagándose rápidamente y transformándose continuamente a medida que se comparten y recrean. Las IAG ya juegan un papel significativo en la cultura de los memes. Determinar quién es el verdadero autor de un meme generado por IAG —si es la propia IAG, el programador, el usuario o nadie— se convierte en un desafío legal y filosófico aún sin resolver e importa por ser cultura popular, y también munición barata para las guerras de desinformación.

Ahora, sin inocencia: IA, empresas locales y Realpolitik

«Todo muy bonito, pero tengo una empresa aquí, no una Big Tech, ¿en qué me afecta?» es una frase que podría pasarte por la cabeza. Ya me la han dicho y me la repetirán. Hay una cuestión cultural en querer renunciar a la ética y ya no digo a la ética digital. Vamos con tres argumentos.

3 argumentos al porqué deberían preocuparte el impacto de las IAG

  • **Adopción generalizada de IAG**: Las Inteligencias Artificiales Generativas (IAG) se están convirtiendo en una parte integral de muchos aspectos de nuestra vida diaria, incluyendo el mundo de los negocios. Su uso generalizado significa que incluso las pequeñas y medianas empresas (PYMEs) tendrán que interactuar con ellas, ya sea directa o indirectamente. Si estas empresas no comprenden y abordan los riesgos y oportunidades asociados con las IAG, podrían quedarse atrás respecto a sus competidores o exponerse a riesgos innecesarios.
  • **Reputación y confianza del cliente**: Las IAG tienen el potencial de cambiar drásticamente la forma en que las empresas interactúan con sus clientes. Por ejemplo, los chatbots basados en IAG pueden mejorar la experiencia del cliente al proporcionar asistencia 24/7. Sin embargo, si se utilizan incorrectamente, también pueden dañar la reputación de una empresa, especialmente si generan contenido ofensivo, inapropiado o engañoso. Además, si las empresas no son transparentes acerca de su uso de IAG, esto podría erosionar la confianza del cliente.
  • **Implicaciones legales y éticas**: El uso de IAG plantea una serie de cuestiones legales y éticas, como la privacidad de los datos, la propiedad intelectual y la responsabilidad por las acciones de las IAG. Las PYMEs necesitan entender estas cuestiones y asegurarse de que su uso de IAG se adhiere a las leyes y regulaciones pertinentes, así como a los estándares éticos. No hacerlo podría exponer a estas empresas a sanciones legales, daño reputacional y pérdida de confianza del cliente.

Contraargumentos al preocuparte por el impacto de las IAG

  • **Por ser populismo tecnológico**: Mi enfoque sobre la Inteligencia Artificial Generativa (IAG) peca de simplificar excesivamente un tema de gran complejidad. Para empezar, el lenguaje que he usado. Decir «apocalipsis tecnológico» aparenta ser de primero de clickbait, tiene un tufillo sensacionalista. ¿Estoy jugando a alentar una cultura del miedo en torno a las IAG, en lugar de promover una comprensión racional de su potencial y desafíos?
  • **Por ser populismo cultural**: Creo que es decente colocar la educación como la primera línea de defensa, pero creer en la educación es una inocentada peligrosa. Primero, por creer. Segundo por confundir educación ejercida con aprendizaje recibido. La educación es un proceso cultural y social que implica mucho más que la simple transmisión de conocimientos. La educación sobre las IAG debe ser entendida en un contexto amplio que incluya una discusión crítica sobre los valores sociales y culturales que moldean y son moldeados por estas tecnologías.
  • **Por ser populismo histórico**: Hace dos décadas fumábamos como chimeneas en los bares mientras se criticaba el derecho al matrimonio entre personas del mismo sexo. Afortunadamente, la sociedad crece lo que nos lleva a desafiar la concepción de la ética como un conjunto fijo de principios. La ética no es algo estático, sino que se construye y negocia en constante diálogo con la sociedad y la cultura. En 10 años puede que aceptemos nuestro futuro como cyborgs, humanos mejorados por la tecnología de IA
  • **Por ser capitalismo utópico**: La idea de que las empresas que desarrollan IAG deben ser transparentes en su operación puede ser un ideal deseable, pero no necesariamente alcanzable. Y que toda empresa desarrolle un protocolo ético al que aferrase siempre, es poco más que las frases que escribimos esperanzados en todo apartado de «Visión y Misión Corporativa» 🙂
  • **Por ser populismo educativo**: La propuesta de «revisar nuestra relación con la tecnología» parece una exhortación a adoptar una visión instrumental de la tecnología. Sin embargo, nuestra relación con la tecnología es más que simplemente instrumental; es una relación cultural y social que está en constante cambio y evolución (y en nuestra cultura de adictos, tendremos más adicción)

Entre argumentos y contraargumentos del impacto de las IAG

Voy a ser muy breve. En Marketing hablamos de apuestas; en Negocio, de oportunidades, en branding, de recordación selectiva; en tecnología, de curva técnica (toda tecnología socialmente usada termina siendo considerada una mera técnica o procedimiento). Por una de ellas o por todas, tienes un futuro al que afrontar con mayor o menor conocimiento y depende de ti.

Al igual que construir la base ética de ese futuro.


View all contributions by

En comunicación estratégica desde 1994 y en marketing digital desde 2001. Dirijo Polaris MNGM, cofundé Incúbame, creé mas de cinco postgrados, doy clases en UVIC, UPF, EADA, Deusto, Barcelona Activa (2023) Si fuera bueno a las escondidas, me hubiera hecho espía. Pero lucho por la comunicación con transparencia en las instituciones, con el foco en la gestión de la conversaciones en los medios sociales. +info Perfil | Twitter | Linkedin

Suscríbete al blog

Copyright @2008-2023 Armando Liussi Depaoli