Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics o YouTube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de Privacidad.

Discusiones actuales sobre la gobernanza de la inteligencia artificial a nivel mundial

Qué se discute en la gobernanza internacional de la IA


La gobernanza internacional de la inteligencia artificial (IA) reúne a gobiernos, organizaciones internacionales, empresas, academia y sociedad civil para definir reglas, normas y mecanismos que orienten el desarrollo y uso de estas tecnologías. Los debates combinan cuestiones técnicas, éticas, económicas, de seguridad y geopolíticas. A continuación se presentan los temas centrales, ejemplos concretos y mecanismos que se proponen o aplican en distintos foros.

Amenazas para la seguridad y la integridad

La preocupación por la seguridad incluye fallos accidentales, usos maliciosos y consecuencias estratégicas a gran escala. Entre los puntos clave están:

  • Riesgos sistémicos: posibilidad de que modelos muy potentes actúen de forma imprevisible o escapen a controles, afectando infraestructuras críticas.
  • Uso dual y militarización: aplicación de IA en armas, vigilancia y ciberataques. En foros de la ONU y del Convenio sobre Ciertas Armas Convencionales se discute cómo regular o prohibir sistemas de armas completamente autónomas.
  • Reducción del riesgo por diseño: prácticas como pruebas adversarias, auditorías de seguridad, y exigencia de evaluaciones de riesgo antes del despliegue.

Ejemplo: en el escenario multilateral se debate la formulación de reglas obligatorias relacionadas con SALA (sistemas de armas letales autónomas) y la implementación de mecanismos de verificación destinados a impedir su proliferación.

Privacidad, vigilancia y protección de los derechos humanos

La IA genera desafíos para los derechos civiles y las libertades públicas:

  • Reconocimiento facial y vigilancia masiva: posible debilitamiento de la privacidad y aparición de sesgos. Diversos países y la Unión Europea analizan imponer límites o pausas a su implementación a gran escala.
  • Protección de datos: gestión responsable de grandes conjuntos de información para entrenar modelos, junto con aspectos de consentimiento, reducción de datos y procesos de anonimización.
  • Libertad de expresión e información: sistemas de moderación automatizada, creación de contenido engañoso y deepfakes que pueden influir en dinámicas democráticas.

Caso: campañas de desinformación potenciadas por generación automática de contenido han llevado a debates en foros electorales y a propuestas para obligaciones de transparencia sobre el uso de sistemas generativos en campañas.

Equidad, no discriminación y inclusión

Los modelos pueden reproducir o amplificar sesgos existentes si los datos de entrenamiento no son representativos:

  • Discriminación algorítmica: evaluaciones independientes, métricas de equidad y mecanismos de reparación.
  • Acceso y desigualdad global: riesgo de concentración de capacidad tecnológica en pocos países o empresas; necesidad de transferencia de tecnología y cooperación para capacidades locales.

Dato y ejemplo: diversas investigaciones han evidenciado que los modelos formados con información sesgada ofrecen un rendimiento inferior para los colectivos menos representados; por esta razón, crece la demanda de iniciativas como las evaluaciones de impacto social y los requisitos de pruebas públicas.

Transparencia, explicabilidad y trazabilidad

Los reguladores analizan cómo asegurar que los sistemas avanzados resulten entendibles y susceptibles de auditoría:

  • Obligaciones de transparencia: comunicar cuando una resolución automatizada impacta a una persona, divulgar documentación técnica (fichas del modelo, fuentes de datos) y ofrecer vías de reclamación.
  • Explicabilidad: proporcionar niveles adecuados de detalle técnico adaptados a distintos tipos de audiencia (usuario final, autoridad reguladora, instancia judicial).
  • Trazabilidad y registro: conservar registros de entrenamiento y operación que permitan realizar auditorías en el futuro.

la propuesta legislativa de la Unión Europea organiza los sistemas por niveles de riesgo y requiere que se entregue documentación exhaustiva para aquellos que se catalogan como de alto riesgo

Responsabilidad jurídica y cumplimiento

La cuestión de cómo asignar la responsabilidad por daños ocasionados por sistemas de IA se ha convertido en un punto clave:

  • Regímenes de responsabilidad: se discute si debe recaer en el desarrollador, el proveedor, el integrador o el usuario final.
  • Certificación y conformidad: incluyen esquemas de certificación previa, evaluaciones independientes y posibles sanciones en caso de incumplimiento.
  • Reparación a las víctimas: se plantean vías ágiles para ofrecer compensación y soluciones de remediación.

Datos normativos: la propuesta de la UE prevé sanciones ajustadas a la gravedad, incluidas multas de gran envergadura ante incumplimientos en sistemas clasificados como de alto riesgo.

Derechos de propiedad intelectual y disponibilidad de datos

El uso de contenidos destinados al entrenamiento de modelos ha provocado fricciones entre la creación, la reproducción y el aprendizaje automático:

  • Derechos de autor y recopilación de datos: disputas legales y demandas de precisión acerca de si el proceso de entrenamiento representa un uso permitido o necesita una licencia formal.
  • Modelos y datos como bienes estratégicos: discusiones sobre la conveniencia de imponer licencias obligatorias, habilitar el intercambio de modelos en repositorios abiertos o limitar su exportación.

Caso: varios litigios recientes en distintos países cuestionan la legalidad de entrenar modelos con contenidos protegidos, impulsando reformas legales y acuerdos entre sectores.

Economía, mercado laboral y dinámica competitiva

La IA puede transformar mercados, trabajos y estructuras empresariales:

  • Sustitución y creación de empleo: estudios muestran efectos heterogéneos: algunas tareas se automatizan, otras se complementan; políticas activas de formación son clave.
  • Concentración de mercado: riesgo de monopolios por control de datos y modelos centrales; discusión sobre políticas de competencia y interoperabilidad.
  • Impuestos y redistribución: propuestas para impuestos sobre beneficios derivados de automatización o para financiar protección social y reentrenamiento.

Ejemplo: variantes regulatorias incluyen incentivos fiscales para inversiones en capacitación y cláusulas en contratos públicos que favorezcan proveedores locales.

Sostenibilidad ambiental

El impacto energético y material de entrenar y operar modelos es objeto de regulación y buenas prácticas:

  • Huella de carbono: entrenamiento de modelos muy grandes puede consumir energía significativa; indicadores y límites son discutidos.
  • Optimización y transparencia energética: etiquetas de eficiencia, reporte de consumo y migración a infraestructuras con energía renovable.

Estudio relevante: diversos análisis han puesto de manifiesto que entrenar modelos de lenguaje de manera intensiva puede llegar a producir emisiones comparables a decenas o incluso cientos de toneladas de CO2 cuando el proceso no se optimiza adecuadamente.

Normas técnicas, estándares y interoperabilidad

La adopción de estándares facilita seguridad, confianza y comercio:

  • Marco de normalización: desarrollo de estándares técnicos internacionales sobre robustez, interfaces y formatos de datos.
  • Interoperabilidad: garantizar que sistemas distintos puedan cooperar con garantías de seguridad y privacidad.
  • Rol de organismos internacionales: OCDE, UNESCO, ONU, ISO y foros regionales participan en la armonización normativa.

Ejemplo: la OCDE formuló principios para la IA que han servido como referencia para muchas políticas públicas.

Procesos de verificación, observancia y coordinación multilateral

Sin mecanismos de verificación creíbles, las reglas quedan en papel:

  • Inspecciones y auditorías internacionales: propuestas para observatorios multilaterales que supervisen cumplimiento y compartan información técnica.
  • Mecanismos de cooperación técnica: asistencia para países con menos capacidad técnica, intercambio de mejores prácticas y fondos para fortalecer gobernanza.
  • Sanciones y medidas comerciales: discusión sobre controles a la exportación de tecnologías sensibles y medidas diplomáticas ante incumplimientos.

Caso: las limitaciones impuestas al comercio de semiconductores ilustran cómo la tecnología de IA puede transformarse en un asunto de política comercial y de seguridad.

Instrumentos normativos y recursos aplicados

Las respuestas normativas varían entre instrumentos vinculantes y enfoques flexibles:

  • Regulación vinculante: leyes nacionales y regionales que imponen obligaciones y sanciones (ejemplo: propuesta de ley en la Unión Europea).
  • Autorregulación y códigos de conducta: guías emitidas por empresas y asociaciones que pueden ser más ágiles pero menos exigentes.
  • Herramientas de cumplimiento: evaluaciones de impacto, auditorías independientes, etiquetas de conformidad, y entornos experimentales regulatorios para probar políticas.

Participación ciudadana y gobernanza democrática

La validez de las normas se sustenta en una participación amplia:

  • Procesos participativos: audiencias públicas, órganos éticos y la presencia de comunidades involucradas.
  • Educación y alfabetización digital: con el fin de que la población comprenda los riesgos y se involucre en la toma de decisiones.

Ejemplo: iniciativas de consulta ciudadana en varios países han influido en requisitos de transparencia y límites al uso de reconocimiento facial.

Sobresalientes tensiones geopolíticas

La búsqueda por liderar la IA conlleva riesgos de fragmentación:

  • Competencia tecnológica: estrategias de inversión, apoyos estatales y pactos que podrían originar ecosistemas tecnológicos separados.
  • Normas divergentes: marcos regulatorios distintos (desde posturas más estrictas hasta otras más flexibles) influyen en el comercio y en la colaboración global.

Resultado: la gobernanza global busca equilibrar harmonización normativa con soberanía tecnológica.

Iniciativas y menciones multilaterales

Existen diversas iniciativas que actúan como punto de referencia:

  • Principios de la OCDE: directrices destinadas a promover el uso responsable y fiable de la IA.
  • Recomendación de la UNESCO: marco ético concebido para orientar la formulación de políticas nacionales.
  • Propuestas regionales: la Unión Europea desarrolla un reglamento basado en la gestión del riesgo y en exigencias de transparencia y seguridad.

Estas iniciativas reflejan cómo se entrelazan directrices no obligatorias con propuestas legislativas específicas que progresan a distintos ritmos.

La gobernanza internacional de la IA se configura como un sistema en constante evolución que ha de armonizar requerimientos técnicos, principios democráticos y contextos geopolíticos. Para que las respuestas resulten efectivas, se precisan marcos regulatorios definidos, procesos de verificación fiables y mecanismos

Por Carlos Urrutia