El presidente estadounidense Joe Biden anunció el viernes un importante acuerdo alcanzado con Amazon, Google, Meta, Microsoft y otras empresas líderes en el desarrollo de tecnología de inteligencia artificial (IA).

Estas compañías se han comprometido voluntariamente a cumplir una serie de medidas de seguridad negociadas por el gobierno de Biden, considerando la enorme promesa y los riesgos que plantea la IA. Biden destacó que su gobierno ha obtenido compromisos de siete empresas estadounidenses para garantizar la seguridad de sus productos de IA antes de ser lanzados al mercado.

Uno de los aspectos clave de estos compromisos es la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de IA.

Aunque no se especifica quién llevará a cabo estas auditorías o responsabilizará a las empresas, se busca asegurar la transparencia y confianza en la tecnología. El presidente expresó la importancia de ser conscientes de las amenazas que pueden surgir con las tecnologías emergentes y afirmó que las empresas tienen la obligación fundamental de garantizar la seguridad de sus productos.

Biden mencionó el daño que las redes sociales han causado debido a la falta de medidas de seguridad adecuadas, enfatizando que estos compromisos son un paso prometedor, pero que aún queda mucho trabajo por hacer. La creciente inversión en herramientas de IA generativa, capaces de producir textos convincentemente similares a los de los humanos y generar imágenes y otros medios, ha despertado tanto fascinación como preocupación.

Existe la preocupación de que estas herramientas puedan engañar a las personas y difundir desinformación, entre otros peligros. En este sentido, los cuatro gigantes tecnológicos mencionados, junto con OpenAI, Anthropic e Inflection, se han comprometido a llevar a cabo pruebas de seguridad que serán realizadas en parte por expertos independientes.

Estas pruebas se enfocarán en protegerse contra los principales riesgos, como la bioseguridad y la ciberseguridad, así como en examinar posibles daños sociales, prejuicios y discriminación, y peligros teóricos de sistemas avanzados de IA que podrían tomar el control de sistemas físicos o replicarse a sí mismos. Además, las empresas se comprometen a reportar públicamente las vulnerabilidades de sus sistemas y a utilizar marcas de agua digitales para distinguir entre imágenes reales y generadas por IA, conocidas como deepfake.

También informarán sobre fallas y riesgos en su tecnología, incluyendo los efectos sobre la equidad y el sesgo. Con este acuerdo, se espera que las empresas líderes en tecnología de IA trabajen de manera conjunta para garantizar la seguridad y confiabilidad de sus productos, protegiendo a los usuarios de posibles riesgos y promoviendo el uso responsable de la tecnología