En una era dominada por el avance tecnológico, la inteligencia artificial (IA) ha emergido como un pilar central de la innovación y desarrollo. Sin embargo, con su crecimiento también han surgido preocupaciones sobre su regulación y potenciales riesgos.
Esta semana, el presidente estadounidense, Joe Biden, tomó una medida trascendental al firmar una orden ejecutiva que busca controlar el desarrollo y aplicación de la IA en la sociedad. Durante la firma, Biden destacó la importancia de la IA, calificándola como “la tecnología más trascendental” de tiempos recientes. Pero también enfatizó los peligros que la misma representa, subrayando la necesidad imperante de su regulación.
Biden afirmó que la orden ejecutiva es la “acción más significativa” adoptada por cualquier gobierno del mundo hasta el momento, lo que permitirá a Estados Unidos ser el líder y modelo que otros países seguirán para controlar el desarrollo de IA. “Necesitamos controlar esta tecnología y no hay forma de evitarlo”, explicó. Lee también: ¡De película! Los carros voladores están a punto de ser una realidad en Florida.
La vicepresidenta Kamala Harris, quien pronto se dirigirá a una cumbre mundial sobre IA en el Reino Unido, reiteró que el enfoque de Estados Unidos debe “servir como modelo para la acción internacional”, reconociendo el impacto global de esta tecnología.
“Al entender que la IA desarrollada en un país puede impactar las vidas y el sustento de miles de millones de personas en todo el mundo, creemos que una tecnología con un impacto global exige una acción global”, declaró la vicepresidenta estadounidense.
A nivel práctico, la orden exige que las empresas notifiquen a la administración cuando desarrollen sistemas de IA que puedan representar un riesgo para la seguridad nacional, económica o salud pública. Adicionalmente, se establecieron mecanismos para monitorear amenazas potenciales en áreas críticas, como la ciberseguridad y protecciones contra el fraude y engaño en el contenido generado por la IA.
En cuanto a la protección de los consumidores y la privacidad, la orden integra cláusulas para fortalecer los derechos civiles, proteger la privacidad y promover la innovación.
Google quiere colaborar con el código de conducta$>
En paralelo al movimiento de la administración de Biden, Google, uno de los gigantes tecnológicos con mayor inversión en IA, expresó su posición ante los acuerdos internacionales recientes.
Los países del G7 acordaron un código de conducta dirigido a empresas e instituciones que desarrollan sistemas de IA. Este código busca mitigar riesgos asociados con la tecnología, tales como la desinformación y vulneraciones de la privacidad.
Respondiendo a este acuerdo, Kent Walker, presidente de Asuntos Globales de Google y Alphabet, afirmó el apoyo de la empresa al Código de Conducta del G7. Walker lo describió como “un paso importante” hacia una IA responsable que beneficie a todos.
Emphasizando la naturaleza global de la IA, Google ha manifestado su deseo de colaborar con gobiernos, industria y sociedad civil para garantizar un desarrollo ético y responsable de la IA.
Las acciones de Biden y la postura de Google reflejan una tendencia global hacia la regulación y cooperación en el ámbito de la IA. Lee también: Teletrabajo rural en auge: incrementa en un 12,5% y genera más de $4 billones.
Como tecnología que afecta a miles de millones de personas en todo el mundo, las decisiones tomadas en los próximos años definirán el camino de la IA en términos de beneficios y desafíos.
A medida que más naciones y empresas reconozcan la necesidad de directrices claras, es probable que veamos más iniciativas y acuerdos internacionales en este ámbito.
Lo que está claro es que la IA no solo está redefiniendo el panorama tecnológico, sino también la forma en que gobiernos y empresas interactúan y cooperan en el escenario global.
