Grandes tecnológicas prometen un desarrollo "seguro" de la IA

Estados Unidos anunció hoy que siete grandes empresas tecnológicas aceptaron voluntariamente una serie de compromisos en el desarrollo de la inteligencia artificial (IA) para que sea más "segura y transparente".

21 JUL 2023 - 10:53 | Actualizado 21 JUL 2023 - 10:55

Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, empresas estadounidenses que están a la vanguardia de esta tecnología, se comprometieron a trabajar en particular en sistemas de marcado de contenidos creados con IA con el fin de reducir los riesgos de fraude y desinformación.

En especial, prometieron probar sus programas informáticos interna y externamente antes de su lanzamiento, invertir en ciberseguridad y compartir las informaciones pertinentes sobre sus herramientas con autoridades e investigadores, incluidas posibles fallas.

También deberán "desarrollar técnicas sólidas para asegurar que los usuarios sepan cuándo los contenidos fueron generados por IA, como un sistema de marca de agua", indicó un comunicado del gobierno estadounidense.

"Esto permitirá que la creatividad ligada a la IA prospere mientras se reducen los peligros relacionados con fraudes o engaños", precisó.

Las fotografías falsas o los vídeos manipulados extremadamente realistas, también llamados deepfakes, existen desde hace años, pero la IA generativa, capaz de producir imágenes tras una simple solicitud, provoca temores por olas de contenido desinformativo que circula en Internet.

Estas pueden prestarse para fabricar estafas muy creíbles o incluso para manipular la opinión, una perspectiva preocupante, en especial cuando el año próximo hay elecciones presidenciales en Estados Unidos.

Hasta ahora, las principales empresas involucradas se mostraron reticentes a la idea de agregar marcas de agua sobre los contenidos creados con sus programas.

"Es un tema complicado", admitió a periodistas un alto funcionario de la Casa Blanca.

La marca de agua "debe funcionar tanto para los contenidos visuales como sonoros", detalló. "Técnicamente, debe ser robusta, pero también fácil de ver para los usuarios", agregó, citado por la agencia de noticias AFP.

En mayo, la Casa Blanca insistió sobre el "deber moral" de las empresas de IA de garantizar la seguridad de sus productos.

Las tensiones políticas en el Congreso hacen poco probable legislar sobre IA en lo inmediato, aunque el gobierno adelantó que trabaja en un decreto ejecutivo.

Además, Estados Unidos está discutiendo con sus aliados la posibilidad de extender estos "compromisos voluntarios" de las tecnológicas hacia un marco legal internacional, ya apuntados en la pasada reunión del G7 en Hiroshima, Japón, a finales de mayo.

Los líderes del G7 acabaron encomendando a sus ministros el establecimiento del llamado Proceso de Hiroshima sobre IA, consistente en la creación de un grupo conjunto de trabajo entre ese foro, la Organización para la Cooperación y el Desarrollo en Europa (OCDE) y la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés).

Este grupo de trabajo discutirá, en torno a finales de este año, cuestiones referentes a la aplicación de esta tecnología, como "la gobernanza, la salvaguardia de los derechos de propiedad intelectual, incluidos los derechos de autor, la promoción de la transparencia, la respuesta a manipulación de la información, incluida la desinformación, y la utilización responsable de esta tecnología".

21 JUL 2023 - 10:53

Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, empresas estadounidenses que están a la vanguardia de esta tecnología, se comprometieron a trabajar en particular en sistemas de marcado de contenidos creados con IA con el fin de reducir los riesgos de fraude y desinformación.

En especial, prometieron probar sus programas informáticos interna y externamente antes de su lanzamiento, invertir en ciberseguridad y compartir las informaciones pertinentes sobre sus herramientas con autoridades e investigadores, incluidas posibles fallas.

También deberán "desarrollar técnicas sólidas para asegurar que los usuarios sepan cuándo los contenidos fueron generados por IA, como un sistema de marca de agua", indicó un comunicado del gobierno estadounidense.

"Esto permitirá que la creatividad ligada a la IA prospere mientras se reducen los peligros relacionados con fraudes o engaños", precisó.

Las fotografías falsas o los vídeos manipulados extremadamente realistas, también llamados deepfakes, existen desde hace años, pero la IA generativa, capaz de producir imágenes tras una simple solicitud, provoca temores por olas de contenido desinformativo que circula en Internet.

Estas pueden prestarse para fabricar estafas muy creíbles o incluso para manipular la opinión, una perspectiva preocupante, en especial cuando el año próximo hay elecciones presidenciales en Estados Unidos.

Hasta ahora, las principales empresas involucradas se mostraron reticentes a la idea de agregar marcas de agua sobre los contenidos creados con sus programas.

"Es un tema complicado", admitió a periodistas un alto funcionario de la Casa Blanca.

La marca de agua "debe funcionar tanto para los contenidos visuales como sonoros", detalló. "Técnicamente, debe ser robusta, pero también fácil de ver para los usuarios", agregó, citado por la agencia de noticias AFP.

En mayo, la Casa Blanca insistió sobre el "deber moral" de las empresas de IA de garantizar la seguridad de sus productos.

Las tensiones políticas en el Congreso hacen poco probable legislar sobre IA en lo inmediato, aunque el gobierno adelantó que trabaja en un decreto ejecutivo.

Además, Estados Unidos está discutiendo con sus aliados la posibilidad de extender estos "compromisos voluntarios" de las tecnológicas hacia un marco legal internacional, ya apuntados en la pasada reunión del G7 en Hiroshima, Japón, a finales de mayo.

Los líderes del G7 acabaron encomendando a sus ministros el establecimiento del llamado Proceso de Hiroshima sobre IA, consistente en la creación de un grupo conjunto de trabajo entre ese foro, la Organización para la Cooperación y el Desarrollo en Europa (OCDE) y la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés).

Este grupo de trabajo discutirá, en torno a finales de este año, cuestiones referentes a la aplicación de esta tecnología, como "la gobernanza, la salvaguardia de los derechos de propiedad intelectual, incluidos los derechos de autor, la promoción de la transparencia, la respuesta a manipulación de la información, incluida la desinformación, y la utilización responsable de esta tecnología".


NOTICIAS RELACIONADAS