La batalla por el control de la IA – POLITICO

Dale al play para escuchar este artículo

Expresado por inteligencia artificial.

LULEÅ, Suecia — Altos funcionarios europeos y estadounidenses se reunieron en Suecia el miércoles para conversaciones sobre tecnología y comercio mientras intentaban encontrar una respuesta a uno de los problemas más difíciles que enfrenta el mundo: cómo vigilar la inteligencia artificial.

Durante un almuerzo de una hora de lomo de bacalao y praliné de chocolate, los funcionarios de Washington y Bruselas redactaron un «código de conducta» voluntario diseñado para prevenir daños, incluida la tecnología de inteligencia artificial más avanzada conocida como IA generativa, como OpenAI y ChatGPT de Google. Bardo. En cuestión de meses, la tecnología había conquistado al público, generando esperanzas y temores por el futuro de la humanidad.

Mientras que algunos se han entusiasmado con el potencial de la inteligencia artificial para generar códigos informáticos y resolver problemas médicos, a otros les preocupa que deje sin trabajo a millones e incluso pueda comprometer la seguridad.

«Las democracias deben demostrar que somos tan rápidos como la tecnología», dijo Margrethe Vestager, la comisaria europea de asuntos digitales, a los periodistas al entrar en la cumbre del Consejo de Comercio y Tecnología (TTC) UE-EE. UU. en la pequeña ciudad industrial de Luleå, a 150 kilómetros al sur del círculo polar ártico.

El TTC se ha convertido en una reunión bianual donde los principales líderes transatlánticos, como el secretario de Estado de EE. UU., Antony Blinken, y el jefe comercial de la Unión Europea, Valdis Dombrovskis, vinculan enfoques comunes para todo, desde semiconductores hasta inversiones en tecnología verde. La cuarta edición de esta semana está dominada por cómo hacer retroceder a China, donde ambas partes todavía están tratando de llegar a un acuerdo.

Pero cuando se trata del auge de la inteligencia artificial, EE. UU. y la UE están cada vez más ansiosos por avanzar juntos.

“Está llegando a un ritmo como ninguna otra tecnología”, dijo Gina Raimondo, la secretaria de comercio de EE. UU., refiriéndose a la inteligencia artificial generativa. «Va a tomar tiempo para que el Congreso de los Estados Unidos o el parlamento (del país) o nuestras otras agencias reguladoras se pongan al día».

Pero el plan conjunto sigue siendo, en el mejor de los casos, un borrador. Vestager le dijo a POLITICO que el código de conducta voluntario es actualmente un documento informativo de dos páginas producido por la Comisión Europea, que ella personalmente entregó a Raimondo el miércoles.

Objetivo por político danés, es presentar estándares no vinculantes sobre transparencia, auditorías de riesgo y otros detalles técnicos para las empresas que desarrollan la tecnología. Esto se presentaría luego a los líderes del G7 en otoño como una propuesta transatlántica conjunta.

Con las reglas obligatorias de IA, el código voluntario es, en el mejor de los casos, un recurso provisional hasta que se establezca una legislación vinculante.

«Las democracias deben demostrar que somos tan rápidos como la tecnología», dijo la comisaria europea de Asuntos Digitales, Margrethe Vestager, al incorporarse al Consejo de Comercio y Tecnología UE-EE.UU. | JOnas Ekstromer/TT News Agency/AFP vía Getty Images

«Acordamos trabajar en ello, traer colegas a bordo para encajar en el proceso del G7», dijo Vestager a los periodistas.

Si ese esfuerzo falla, potencialmente podría dejar espacio para que China promueva su propia versión autoritaria de la tecnología en todo el mundo.

Donde Europa y EE.UU. divergen

Aún así, sigue existiendo un enorme abismo en forma de IA entre Washington y Bruselas en lo que respecta a las reglas.

La UE, impulsada por un historial de redacción de gran parte del libro de reglas digitales que ahora domina el mundo occidental, está avanzando con reglas obligatorias para la inteligencia artificial que exigirían que las empresas no utilicen la tecnología de formas «dañinas» predefinidas. Los funcionarios europeos esperan finalizar una ley de la UE sobre inteligencia artificial para fines de diciembre después de duras negociaciones políticas que se han prolongado durante más de dos años.

Pero los países europeos y los eurodiputados, que deben ponerse de acuerdo sobre el texto final, están en desacuerdo sobre algunos aspectos clave del texto, en particular el reconocimiento facial en lugares públicos. Mientras tanto, la industria de la tecnología se ha resistido a lo que considera una supervisión demasiado difícil de la IA generativa.

Los esfuerzos en Bruselas han llevado a la industria de EE. UU., que invierte miles de millones de dólares en inteligencia artificial, a buscar en la UE una legislación específica, similar a lo que sucedió cuando el bloque comenzó a elaborar leyes de privacidad y contenido en línea.

EE. UU., por otro lado, prefiere un enfoque más no intervencionista, confiando en que la industria presente sus propias salvaguardas. Debido a las continuas divisiones políticas en el Congreso, es poco probable que se apruebe una legislación específica sobre IA antes de las elecciones estadounidenses del próximo año.

La administración Biden ha hecho de la cooperación internacional en IA una prioridad política, especialmente porque la mayoría de las principales empresas de IA, como Google, Microsoft y OpenAI, tienen su sede en los EE. UU. Para Washington, ayudar a estas empresas a competir con sus rivales chinos también es una prioridad de seguridad nacional. .

En las últimas semanas, la Casa Blanca abrió sus puertas a la industria y acogió a los directores ejecutivos de cuatro importantes empresas de IA para un debate privado a principios de mayo. Lanzó un esfuerzo para que las empresas de tecnología se comprometieran con el cumplimiento voluntario de las normas de comportamiento responsable. Y cuando se trata del establecimiento de estándares internacionales, promueve el marco de gestión de riesgos desarrollado en los EE. UU. por el Instituto Nacional de Estándares y Tecnología.

Construyendo el enfoque de Occidente

El miércoles, altos funcionarios de EE. UU. y la UE intentaron eludir estas deficiencias con un enfoque que se basaría en los principios globales existentes propuestos por la Organización para la Cooperación y el Desarrollo Económicos. Su objetivo era ir más allá que la OCDE al señalar específicamente los peligros potenciales de la IA generativa.

El acuerdo marco ofrecería a las empresas más certeza sobre cómo los dos bloques económicos más grandes de Occidente controlarán esta tecnología emergente. El objetivo es acelerar la introducción de un código voluntario, aunque probablemente se basará en las normas europeas de IA existentes y no está claro si los funcionarios y las empresas estadounidenses apoyarán tal enfoque.

«La claridad legal será algo bueno», dijo Sam Altman, CEO de OpenAI, la firma de tecnología detrás de ChatGPT, en un evento en París la semana pasada en una gira europea que también incluyó Varsovia, Madrid, Munich y Londres. El jefe de tecnología celebró una reunión virtual con Vestager el miércoles, durante la cual discutieron una propuesta de código de conducta voluntario.

Aún así, hay dudas sobre si la UE habla con una sola voz.

Algunos funcionarios en Bruselas esperan presentar algunas de las reglas del bloque al llamado Pacto AI. un compromiso voluntario separado que las empresas pueden firmar en relación con la próxima ley europea de IA, que probablemente entre en vigor en 2026.

Thierry Breton, comisionado del mercado interno de la UE, dijo que cualquier coordinación regulatoria con socios de ideas afines, como los EE. UU., se basaría en el enfoque europeo existente. «Si otros quieren inspirarse, por supuesto que son bienvenidos», dijo.

You may also like...