23.6 C
Resistencia
31 octubre, 2024

Ver para no creer: la inteligencia artificial debilitó nuestra capacidad de reconocer qué es verdad y qué no

TN Tecno conversó con Carme Colomina Saló, investigadora y enviada especial de la Unión Europea, sobre la desinformación en las plataformas de redes sociales y desafíos actuales para combatir las fake news.

Rodrigo Álvarez

01 de mayo 2024, 04:10hs

Primera condena en España por divulgar noticias falsas (Foto: AFP)

Ver para no creer: la inteligencia artificial debilitó nuestra capacidad de reconocer qué es verdad y qué no(Foto: AFP)

Internet y las plataformas cambiaron de manera signifcativa la forma en la que interactuamos con la información. “La mentira y la propaganda existieron siempre, pero hay un antes y un después de las redes sociales”, señaló Carme Colomina Saló, investigadora senior del Barcelona Centre for Internacional Affairs. “La gran diferencia de estos últimos años está en la capacidad de penetración que tiene la desinformación y la velocidad con la que consigue alterar el discurso público”.

En el marco de la Conferencia sobre Desinformación en el contexto internacional actual(*), organizada por iniciativa de la Embajada de la República de Polonia, junto con las embajadas de Estados Unidos, Reino Unido, Ucrania y la Unión Europea, TN Tecno conversó con Colomina Saló, experta enviada por la UE, sobre los desafíos globales derivados de la expansión de estrategias de desinformación y manipulación de las noticias: “El proceso de digitalización que vivimos cambió nuestra relación con la información y con los contenidos que consumimos”.

Leé también: 11 consejos para detectar fake news en redes sociales

Con una licenciatura en periodismo y un curso de posgrado en estudios de la UE, Carme Colomina Saló cuenta con una larga trayectoria periodística como corresponsal en Bruselas y enviada especial a cumbres internacionales y conflictos políticos en una veintena de países. Como investigadora, coordina el proyecto DigiDem-EU sobre democracias digitales, destinado a analizar, discutir y fortalecer la comprensión y conciencia de los ciudadanos sobre cómo la tecnología impacta en la democracia de la UE, la política, el compromiso cívico y los derechos de los ciudadanos. “La cantidad de información a la que estamos expuestos debilitó nuestra capacidad de discernir qué es verdad y qué no”, aseguró a TN Tecno, y agregó: “Al final la verdad, como todos tenemos nuestros sesgos personales, muchas veces ya no reside en la factualidad o en la capacidad de demostrar los hechos, sino en si concuerda con nuestra visión del mundo”.

Conferencia sobre Desinformación en el contexto internacional actual. (Foto: Gentileza Embajada de Polonia en Buenos Aires)

Conferencia sobre Desinformación en el contexto internacional actual. (Foto: Gentileza Embajada de Polonia en Buenos Aires)

Este exceso noticias disponibles las 24 horas del día, los siete días de la semana, del que habla Colomina Saló, hace que vivamos en un ambiente informativo por demás tóxico, donde se hace mucho más difícil para un usuario común de Internet y redes sociales, encontrar y distinguir entre fuentes de información fiables y contenidos falsos. “Esta situación nos obliga a ser mucho más críticos en el consumo de información o, al menos cuando leemos, poner el tiempo necesario para hacer una lectura más crítica de las noticias y del contenido que nos llega”.

La cuestión es de quién es la responsabilidad para enseñar a los usuarios a discernir entre verdad, realidad y fake news.

– ¿Cómo se educa a la gente en este tema? ¿A quién corresponde hacerlo: a las plataformas, a los Estados, a los organismos no gubernamentales?

– Las responsabilidades son compartidas -afirmó la investigadora-. Hay una responsabilidad individual, pero claramente también hay una responsabilidad de las plataformas, que durante muchos años se escudaron en el argumento de que ellas eran unas meras autopistas de la información que no tenían una responsabilidad editorial sobre aquello que se compartía en su espacio.

– ¿Qué puden hacer las plataformas para combatir la desinformación y la propagación de fake news?

– Hay mucho trabajo que se puede hacer. Por ejemplo, etiquetar el contenido que no puede ser demostrado. Yo creo que la idea de marcar esos contenidos con una advertencia es una manera de educar al público y entrenar nuestro pensamiento crítico. Al menos es un aviso de que aquello que vamos a consumir o a leer no ha podido ser verificado. Hay estudios que dicen que, si bien es verdad que unas etiquetas no cambian nuestras ideas, ni nos convencen, desincentivan la acción de compartirlas.

En esta aspecto, la experta catalana cree que hubo una evolución en los últimos años y el nivel de conciencia de la presencia de desinformación en el discurso público creció: “Somos mucho más conscientes de que la mentira está allí, de que recibimos información que no es tan fácil de confirmar”.

Leé también: Guerra en Israel: mentiras, fake news y videos de otras fechas inundan las redes sociales

El impacto de la Ley de Servicios Digitales

La Ley de Servicios Digitales (DSA, por sus siglas en inglés) es una de las más recientes normas regulatorias de plataformas online, intermediarios y motores de búsqueda que operan en el mercado europeo. Entró en vigor el 17 de febrero de 2024 y su objetivo principal es crear un entorno digital más seguro y responsable para los usuarios.

La norma es la primera ley que se aprueba a nivel europeo de obligatorio cumplimiento y con capacidad sancionadora. “Hasta ahora todo el marco legislativo normativo que había creado la Unión Europea era voluntario, no tenía capacidad de sancionar. Y ahora sí. Esa es la primera razón por la que la DSA es revolucionaria”, expresó Carme Colomina Saló a TN Tecno. “El segundo motivo es que realmente impone muchas más obligaciones de transparencia y de claridad algorítmica”.

Durante mucho tiempo se afirmó que en las últimas décadas habíamos experimentado un proceso de desintermediación con los grandes responsables de explicarnos el mundo desde los medios de comunicación. Los políticos, los sindicatos, los expertos, la academia y los medios, que habían tenido el monopolio de la información, lo perdieron por la irrupción de Internet. Sin embargo, a los pocos años, las promesas de la llamada Red 2.0 se desvanecieron. “La horizontalidad era muy bonita, pero después llegó la realidad y hoy estamos en un panorama totalmente intermediado por los algoritmos. Ahora hay alguien más que está decidiendo qué vemos y qué no vemos”. Colomina Saló se refiere a las grandes plataformas de redes sociales: X, Facebook y TikTok, principalmente.

Leé también: Twitter es un “arma masiva de desinformación”, según un informe de la Comisión Europea

“El modelo de negocio de estas plataformas no se basa en la calidad del contenido, sino en su capacidad de diseminarse, de replicarse. Eso es porque hay unos algoritmos que promocionan unos contenidos respecto a otros y también obliga a más transparencia en ese nivel”, aseguró la experta.

La Ley de Servicios Digitales obliga a mucha más transparencia, no solo sobre eliminación de contenidos y con qué argumentos se realiza, sino también transparencia sobre los algoritmos o por qué hay determinados contenidos que son diseminados o que tienen un empuje mucho mayor en las redes que otros.

Otra cuestión importante de la Ley es que, en un contexto de procesos electorales en Europa en marcha este año obliga y pone límites a la propaganda política en internet en época electoral y obliga a publicar quién está detrás de las publicaciones políticas y quién las paga.

Leé también: Luego de reclamos por difusión de fake news, X asegura que borró noticias falsas sobre el conflicto en Israel

La inteligencia artificial: ver para no creer

Por último, pero no menos importante, está el tema de la inteligencia artificial: “Yo creo que hay dos grandes apuestas legislativas en 2024 en Europa”, afirmó Carme Colomina Saló. “Una es la Ley de Servicios Digitales, la otra es la Ley de Inteligencia Artificial, que está consensuada, pero tiene que acabarse de aprobar, pero ya se llegó a un acuerdo”.

– ¿Qué aporta la Ley de inteligencia artificial al debate sobre la desinformación?

– Lo que hizo la Unión Europea es regular los usos de la inteligencia artificial, no la tecnología en sí misma, sino el uso de esa tecnología. Lo que hace la Ley es setear distintos niveles de riesgo. Unos riesgos inaceptables, que no se van a permitir en la Unión Europea, por ejemplo el seguimiento e identificación en tiempo real de personas con cámaras biométricas a través de inteligencia artificial, y definir otros usos de inteligencia artificial que se consideran de menor riesgo o permitidos y, por tanto, se tendrán que respetar estos distintos niveles.

La Ley de IA de la Unión Europea categoriza estos riesgos que menciona Colomina Saló en cuatro niveles:

1. Riesgo inaceptable: sistemas que amenazan la seguridad, la salud o los derechos fundamentales de las personas, como por ejemplo los sistemas de vigilancia biométrica en tiempo real, reconocimiento de emociones por IA, sistemas policiales predictivos.

2. Alto riesgo: sistemas que podrían generar daños significativos a la salud, la seguridad o los derechos fundamentales de las personas, como sistemas de identificación biométrica remota, sistemas de calificación crediticia de IA, chatbots que proporcionan asesoramiento médico.

3. Riesgo limitado: sistemas que podrían generar daños o engaños a las personas, pero con un impacto menor. En este rango entrarían los chatbots que no se identifican como tales, software de generación de imágenes o videos que podría usarse para crear contenido falso.

4. Riesgo mínimo o nulo, como filtros de spam, calculadoras básicas, juegos electrónicos simples.

Leé también: Europa aprobó la primera ley que regula la inteligencia artificial: busca más transparencia en su uso

– ¿Cuáles son los principales desafíos que se enfrentan tanto los gobiernos como las empresas para combatir la desinformación?

– La tecnología evoluciona a un nivel muy superior al de las legislaciones. Las leyes siempre van corriendo por detrás. Y esa es una realidad que tienen que afrontar todas las instituciones y los gobiernos ante la desinformación. Por eso también es importante intentar crear o animar a una máxima cooperación institucional. Porque cuanto más información se distribuya, cuanto más prácticas que funcionan se compartan, cuanto haya una estrategia, más o menos coordinada, igual también se puede ser más activo. Porque la desinformación se difunde a través de estrategias coordinadas. Pues igual, estaría bien que también haya estrategias coordinadas a la hora de intentar frenarla.

Por último, Carme Colomina Saló expresó que la gran incógnita de la actualidad y de los procesos electorales que estamos viviendo y que vamos a vivir estos años es hasta qué punto la inteligencia artificial va a ser o no un factor y un elemento de disrupción: “Si las elecciones en 2016 en Estados Unidos fueron las de la desinformación y la posverdad, debemos preguntarnos si las de 2024 serán o no las de la inteligencia artificial. Y ese es uno de los principales interrogantes con los que nos enfrentaremos porque la inteligencia artificial dificulta todavía más la capacidad de discernir, entre realidad, verdad y mentira. Y apela a nuestra propia capacidad individual de reconocer qué es verdad y qué no. Lo que se dice en español, el ver para creer, ha muerto. Ahora vemos y no sabemos si podemos creer o no. Y ese es un reto muy importante a nivel de inteligencia artificial”.

¿Querés recibir más información de Tecno?

Suscribite acá(*)Carme Colomina Saló integró el panel Ramificaciones globales de la desinformación en torno de la invasión de Rusia a Ucrania, que contó con la moderación de Carolina Amoroso y la participación de Douglas Farah (presidente del IBI Consultants de Estados Unidos) y Simeon Welby (Director de lucha contra la desinformación del Reino Unido)

Últimas Noticias
NOTICIAS RELACIONADAS