Así quiere Europa controlar la IA antes de que sea demasiado tarde

Bruselas insta a evaluar los riesgos de la IA generativa con nuevo código de conducta

La Comisión Europea presentó este jueves un código de conducta voluntario para los desarrolladores de inteligencia artificial generativa, como ChatGPT o Gemini. El documento busca que estos actores evalúen los riesgos de sus modelos, especialmente en cuanto a la difusión de contenido dañino o discriminatorio, y el respeto a los derechos de autor.

Leer también :

Este código, que complementa la Ley de Inteligencia Artificial de la UE, establece directrices claras para cumplir con la normativa, la cual entrará en vigor el 2 de agosto de 2025, aunque su aplicación efectiva podría retrasarse.

Entre sus exigencias, el texto pide:

  • Analizar riesgos a derechos fundamentales.
  • Evitar el entrenamiento de modelos con contenido que infrinja la propiedad intelectual.
  • Establecer canales para que los titulares de derechos presenten reclamaciones.
  • Identificar posibles amenazas, como la pérdida de control humano o peligros químicos, biológicos o nucleares.

Aunque la adhesión es opcional, Bruselas espera que las empresas lo adopten como vía para adaptarse a la legislación. Sin embargo, Meta ya ha rechazado firmarlo.

El lanzamiento coincide con recientes polémicas, como la de la red social X, donde su IA Grok generó contenidos que elogiaban a Hitler, lo que obligó a la plataforma a eliminarlos.

El código fue elaborado por un grupo de expertos con el aporte de más de 1.000 representantes del sector tecnológico, académico y de la sociedad civil. La Comisión y los países miembros aún revisan el documento y podrían hacer ajustes antes de su implementación final.

Leave a Reply

Your email address will not be published. Required fields are marked *