En el momento en que las quejas se acumulan contra ChatGPT, OpenAI se embarca en un proceso legislativo controvertido para protegerse de las consecuencias más graves del uso de la inteligencia artificial. Este proyecto de ley, apoyado en el estado de Illinois, busca exonerar a las empresas de IA de cualquier responsabilidad civil, incluso en caso de tragedias como muertes masivas. ¿Qué esconde este movimiento estratégico de OpenAI en un contexto de creciente regulación internacional?
Lo esencial a recordar
- OpenAI apoya un proyecto de ley en Illinois para eximir a las empresas de IA de cualquier responsabilidad civil en caso de catástrofes.
- El proyecto de ley SB 3444 cubre escenarios extremos, como el uso de IA para crear armas químicas o nucleares.
- Las exigencias del AI Act y las regulaciones europeas imponen responsabilidades aumentadas a los proveedores de IA, contrastando con el enfoque estadounidense.
OpenAI y el proyecto de ley en Illinois
OpenAI, líder en inteligencia artificial, está en el centro de una controversia relacionada con un proyecto de ley en Illinois, el SB 3444. Este texto prevé proteger a las empresas de IA de cualquier responsabilidad civil en caso de catástrofes provocadas por sus tecnologías. Esta iniciativa surge mientras la empresa enfrenta varias demandas judiciales, especialmente por incidentes relacionados con el uso de ChatGPT.
Jamie Radice, portavoz de OpenAI, declaró que esta legislación busca reducir los riesgos asociados con los sistemas de IA más avanzados. Según ella, también permitiría evitar una fragmentación legislativa entre los diferentes estados estadounidenses.
Reacciones y oposición
El proyecto de ley no es unánime. Muchos señalan que la mayoría de los estadounidenses se oponen a cualquier reducción de la responsabilidad de las empresas de IA. Scott Wisor, director de Secure AI, recordó recientemente esta oposición durante una intervención pública.
Paralelamente, la administración estadounidense continúa permitiendo que los estados legislen individualmente sobre cuestiones relacionadas con la IA. Sin embargo, el proyecto de ley de Illinois podría servir de modelo para una posible legislación federal, lo que preocupa a algunos expertos del sector.
Las obligaciones regulatorias en Europa
En Europa, la situación es sensiblemente diferente. Las obligaciones impuestas por el AI Act, que entrarán en vigor en agosto de 2026, exigen una transparencia aumentada y una supervisión humana de los sistemas de IA. Estas medidas buscan reforzar la responsabilidad de los proveedores de tecnologías avanzadas.
La directiva revisada sobre la responsabilidad de los productos, implementada en 2024, amplía la responsabilidad estricta a los softwares, incluidos aquellos basados en IA. Así, en caso de perjuicio causado por un sistema de IA, el fabricante puede ser considerado responsable, incluso sin culpa probada. Este enfoque contrasta fuertemente con el previsto por el proyecto de ley de Illinois.
Perspectivas futuras para la regulación de la IA
Frente a estos desarrollos, la cuestión de la regulación de la IA sigue siendo central. En 2026, mientras las tecnologías de IA continúan desarrollándose a un ritmo rápido, la necesidad de una regulación armonizada y eficaz se vuelve cada vez más evidente. Los gobiernos y los organismos internacionales trabajan en la implementación de marcos regulatorios que garanticen tanto la innovación como la seguridad pública.
El debate sobre la responsabilidad de las empresas de IA en los casos de catástrofes pone de relieve los desafíos complejos a los que se enfrentan los reguladores. También destaca la importancia de un diálogo continuo entre la industria, los legisladores y el público para encontrar un equilibrio entre la innovación tecnológica y la protección de los ciudadanos.






