Icono del sitio NoticiasPV

“Empresas líderes en IA tienen el deber ético y legal de proteger del peligro de su tecnología”

jornada.com.mx

San Francisco. Las empresas líderes en inteligencia artificial (IA) tienen el deber “moral” de proteger a la sociedad de los peligros potenciales de esta tecnología, afirmó ayer la vicepresidenta Kamala Harris ante los directivos de Google, Microsoft, OpenAI y Anthropic.

“El sector privado tiene el deber ético, moral y legal de garantizar de la seguridad de sus productos”, indicó Harris en un comunicado tras haberse reunido con Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) y varios miembros del gobierno.

Señaló que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, pero también podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad y socavar la confianza pública en la democracia”.

Añadió que apoya, junto con el presidente Joe Biden, quien rápidamente pasó por la reunión, “nuevas regulaciones potenciales y legislación”.

La inteligencia artificial está presente desde hace años en la vida cotidiana, en las redes sociales y hasta en los electrodomésticos de alta gama y los programas de reclutamiento de personal.

Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, empresa emergente financiada ampliamente por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez más intuitivos y eficientes, que son capaces de producir textos, imágenes y códigos de programación cada vez más complejos.

“Es bueno tratar de anticiparnos (en el tema de la regulación). No va a ser fácil pero creo que podemos llegar”, dijo Harris a los periodistas antes de ingresar a la Casa Blanca.

Su lanzamiento despertó entusiasmo e inquietudes a una nueva escala. En especial cuando Sam Altman, director de OpenAI, anticipó la próxima producción de la llamada IA “general”, en la que los programas serán “más inteligentes que los humanos en general”.

Los riesgos van desde la discriminación hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación sofisticada a gran escala, entre otros.

A fines de 2022, la Casa Blanca publicó el Plan para una Declaración de Derechos de la IA, un breve documento que enumera principios generales, como la protección contra sistemas peligrosos o falibles.

A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés), centro afiliado al gobierno, diseñó un “marco para la gestión de riesgos” relacionado con esta tecnología.

El presidente Biden indicó el mes pasado que estas empresas “claramente (…) deben garantizar que sus productos sean seguros antes de ponerlos a disposición del público en general”, palabras que se incluyeron en la invitación.

Sin embargo, “estas directrices y declaraciones no obligan a las empresas afectadas a hacer nada”, subrayó David Harris, quien fue director de investigación en IA en Meta.

“Los patrones reclaman más regulaciones”, remarcó, aunque Facebook, a pesar de haber “llamado públicamente” a mejorar las leyes que rigen la confidencialidad de los datos personales, “paga al mismo tiempo a cabildeos que combaten estos proyectos de ley”.

La Casa Blanca anunció ayer nuevas inversiones en la investigación sobre IA y nuevos métodos de evaluación de los sistemas actuales.

Los gigantes en esta tecnología no niegan que existan riesgos, pero temen que se asfixie la innovación por leyes demasiado restrictivas.

“La inteligencia artificial será utilizada por actores maliciosos y, sí, va a causar daños”, precisó el miércoles Michael Schwarz, economista jefe de Microsoft, durante un panel en el Foro Económico Mundial, según Bloomberg.

Pero pidió a los legisladores que no se apresuren y que cuando haya ya un “daño real”, se aseguren de que “los beneficios de la regulación sean mayores que el precio para la sociedad.

“La última vez que nos enfrentamos a semejante convulsión social debido a las tecnologías fue a comienzos de la web 2.0, en 2002”, aseguró el miércoles Lina Khan, presidenta de la Comisión Federal de Comercio, agencia estadunidense de protección al consumidor.

Al otro lado del Atlántico, Europa espera liderar de nuevo el camino hacia una regulación ad-hoc en torno a la IA, como ya lo hizo con la ley de datos personales.

“No es una carrera. Trabajamos en conjunto con nuestros colegas europeos”, destacó un alto funcionario de la Casa Blanca.

Salir de la versión móvil