Los Benjamins

Información de último momento

¿POCO TRANSPARENTES? Gobierno de los EEUU fija nuevas reglas para el uso de la IA por parte de sus agencias

La Casa Blanca establece salvaguardias para el uso de inteligencia artificial por agencias gubernamentales en Estados Unidos, medidas con las que se busca proteger los derechos y la seguridad del pueblo estadounidense al emplear herramientas de inteligencia artificial.

Además, se exige que las agencias federales publiquen listas de los sistemas de IA que utilizan y gestionen los riesgos de manera transparente. Estas políticas internas podrían servir como modelo a nivel global.

La Oficina de Gestión y Presupuesto ha emitido una directiva para que las agencias federales supervisen, evalúen y prueben los impactos de la IA en el público, al tiempo que mitiguen los riesgos de discriminación algorítmica y proporcionen transparencia sobre cómo utiliza la Administración la IA.

Además, las agencias deberán realizar evaluaciones de riesgos y establecer métricas operativas y de gobernanza.

Según la Casa Blanca, las agencias estarán obligadas a aplicar salvaguardias concretas cuando utilicen la IA de un modo que pueda afectar a los derechos o la seguridad de los estadounidenses, incluida la divulgación pública detallada para que el público sepa cómo y cuándo utiliza la Administración la inteligencia artificial.

El presidente Joe Biden firmó una orden ejecutiva en octubre invocando la Ley de Producción de Defensa para exigir a los desarrolladores de sistemas de IA que planteen riesgos para la seguridad nacional, la economía, la salud pública o la seguridad de Estados Unidos que compartan los resultados de las pruebas de seguridad con el Gobierno de Estados Unidos antes de divulgarlos públicamente.

La Casa Blanca informó el jueves que las nuevas salvaguardias garantizarán que los viajeros aéreos puedan optar por no utilizar el reconocimiento facial de la Administración de Seguridad en el Transporte sin retrasos en los controles. Cuando la IA se utilice en la sanidad federal para apoyar decisiones diagnósticas, un humano deberá supervisar «el proceso para verificar los resultados de las herramientas».

Con información de El Nacional