La Cultura en la Era de la Intermediación Algorítmica: Desafíos y Regulación El reto urgente de la Argentina

Publicado en el portal Esfera comunicacional

 

Las culturas no son entes abstractos; son tejidos vivos construidos mediante procesos de comunicación. Como bien señaló Roland Barthes, toda interacción humana se sostiene en la producción y el consumo de signos. Sin embargo, en pleno siglo XXI, esta dinámica ha sufrido una mutación importante: la producción de sentido ha dejado de ser exclusivamente humana. Hoy, nuestros signos son co-creados por Inteligencias Artificiales (IA) y distribuidos por infraestructuras digitales que operan a una escala que desborda nuestra capacidad de procesamiento. Estamos ante un ecosistema donde el signo y el bit se han vuelto indistinguibles, o al menos con complejidad.

Ya no habitamos una realidad física simplemente «comentada» por lo digital; vivimos en una realidad híbrida. Nuestro entorno simbólico está mediado por el uso algorítmico, que no solo traduce nuestra cotidianeidad, sino que en cierta forma, la predetermina. La percepción del mundo ya no depende únicamente de nuestros sentidos o del periodismo tradicional, sino de arquitecturas de software que deciden, en una «caja negra» inaccesible, qué es verdad, qué es relevante y qué debe permanecer invisible.

Esta mediación no es neutral. Cuando un algoritmo jerarquiza una voz o silencia otra, está ejerciendo un poder político. Por eso, la diversidad de miradas hoy no es solo un valor cultural, sino una cuestión de supervivencia democrática. Sin transparencia, quedamos atrapados en «cámaras de eco» que fragmentan la realidad hasta volverla irreconocible.

Una tarea militantes y dirigencial seria es abrir la «Caja Negra” y poner en marcha aspectos regulatorios para las empresas digitales pues de no hacerlo se pone en peligro el pacto democrático de las sociedades.

La transparencia algorítmica no puede reducirse a la publicación de códigos fuente que nadie comprende. Necesitamos explicabilidad  (XAI)[1]. Para abrir la caja negra, el debate público debe exigir tres niveles de acción inmediata:

  1. Auditorías de impacto: Peritajes técnicos que detecten sesgos discriminatorios (de género, raza o clase) antes de que los sistemas se desplieguen.
  2. Organismos de control independientes: Una Autoridad de Supervisión Digital con autonomía real. El «autocontrol» de las tecnológicas ha fracasado; la supervisión debe ser un esfuerzo colegiado entre la academia, la sociedad civil y el Estado.
  3. Trazabilidad: El derecho ciudadano a saber, en tiempo real, por qué un sistema nos recomienda un contenido específico. El «por qué veo esto» debe ser un derecho, no una curiosidad técnica.

El dogma de las plataformas como «conductos  neutrales» ha muerto. Las grandes tecnológicas son curadores activos de la realidad social. Por ello, la normativa moderna debe migrar hacia la responsabilidad por riesgo sistémico. Las empresas deben ser legalmente responsables si sus algoritmos incentivan la desinformación masiva, la polarización extrema o dañan la salud mental de los jóvenes mediante mecánicas adictivas. La «diligencia debida» (duty of care)[2] exige que las plataformas demuestren proactivamente que han mitigado los efectos nocivos de su modelo de negocios.

Nuestro pais vive una combinación de talento humano con parálisis institucional en el tema que estamos tratando.

Mientras el mundo avanza, con la AI Act en la Unión Europea[3] o planes de soberanía digital en Brasil y Chile, la Argentina exhibe una «morfología morosa».

Contamos con un capital humano técnico de vanguardia, pero el Estado no ha logrado consolidar una organización central con capacidad de sanción.

La discusión local sigue fragmentada en guías éticas y recomendaciones que, aunque bienintencionadas, carecen de fuerza vinculante. Esta ausencia de un ente regulador nos deja en una situación de indefensión frente a empresas transnacionales.

Sin una Soberanía Digital real, la regulación de nuestros procesos simbólicos queda delegada a algoritmos diseñados en Silicon Valley o Beijing, bajo intereses ajenos a nuestra democracia.

Reglamentar este espacio no es frenar la innovación; es rescatar la libertad de expresión de las manos de la arbitrariedad  tecnológica. La intervención pública no es censura, sino la infraestructura necesaria para que el entorno simbólico siga siendo genuinamente humano.

Si la comunicación es uno de los temas magnos de nuestra sociedad, el Estado Argentino tiene una deuda urgente: garantizar que la transición hacia una sociedad mediada por la IA no erosione nuestra diversidad, sino que la potencie bajo un marco de justicia social, democracia de utilización y ética digital.

El futuro de nuestra cultura se juega en el código, y es hora (algunos hace 20 años que venimos insistiendo en el tema de la necesidad regulatoria)  de que la política tome la palabra.

[1] “Explicabilidad XAI es cuando se describe un modelo de IA, se conoce su impacto esperado y sus posibles sesgos. Ayuda a caracterizar la precisión del modelo utilizado.

 

[2] La expresión «duty of care» se traduce comúnmente al español como deber de cuidado, obligación de diligencia o deber de protección.

[3] Regulación 2024/1689, más conocida como la AI Act, primera ley horizontal en el mundo dedicada exclusivamente a regular el desarrollo y uso de la inteligencia artificial.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *