La Casa Blanca ha invitado a un ejecutivo de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic, para escuchar a estos jóvenes en un «discusión sobre los ‘riesgos de pérdida’ asociados con esta tecnología con varios miembros del Gobierno, entre ellos la vicepresidenta Kamala Harris.
«Nuestro objetivo es celebrar una discusión franca sobre los resultados actuales y el cortometraje que percibimos en los desarrollos de IA”, dice la invitación.
(Además: ChatGPT: ¿la inteligencia artificial le podría quitar su trabajo?)
El gobierno también busca discutir ‘pasos para reducir estos riesgos y otras formas en que podemos trabajar juntos para que los estadios dounidenses se beneficien de ello de los avances de la IA mientras están protegidos de peligros»
Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) confirman su participación, tras la Casa Blanca.
Allá La inteligencia artificial está presente en la vida cotidiana desde hace años.de los algoritmos de recomendación de las redes sociales han sido los electrodomésticos de alta gama.
(También: Profesor, programador y otras carreras que manejo por inteligencia artificial)
Sin embargo, el deslumbrante salió del final del año gastado por ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada en gran parte por Microsoft, fue el punto de partida para un carrera cuenta con sistemas cada vez más intuitivos y eficientes, que es capaz de generar textos, imágenes y códigos de programación cada vez más complejos.
Su lanzamiento despertó entusiasmo e inquietudes a una nueva escalada. Especialmente gracias a Sam Altman, director de OpenAI, anticipó la próxima generación de la IA llamada «general»de ahí que los programas sean «más inteligentes que los seres humanos en general».
(Lea: IA de ChatGPT es la mayor de la vanguardia tecnológica de las últimas décadas, según Bill Gates)
La Casa Blanca anuncia un compromiso independiente de los principales laboratorios de IA, como Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI y Stability AI, para participar en una evaluación pública de los sistemas de IA en una plataforma de evaluación desarrollada por escalas de IA. https://t.co/6JjDrLFRlb
— Seb Krier (@sebkrier) 4 de mayo de 2023
Riesgos latentes de la Inteligencia Artificial
Los riesgos de la IA desde la discriminación de algoritmos hasta la automatización de datos realizada por humanos, el robot de propiedad intelectual o la desinformación sofisticada a gran escala, entre otros.
“Los modelos de lenguaje capaces de generar imágenes, sonido y video son uno sueño hecho realidad para quienes quieren destruir las democracias‘ ayudó al profesor de UC Berkeley David Harris, especialista en políticas públicas e IA.
(Nosotros recomendamos: Zelenski presenta al CPI un tribunal especial para juzgar ‘crímenes de agresión rusa’)
A fines de 2022, la Casa Blanca publicó un «Plan para una Declaración de Derechos de la IA», un breve documento que enumera principios generales como la protección contra sistemas peligrosos o falible.
A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al gobierno, diseñó un «marco para la gestión de riesgos» relacionado con la IA.
El presidente Biden dijo el mes pasado que estas empresas «claramente (…) debe asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general”, dice la invitación.
(Puede leer: ¿Qué impacto tendrá el presunto ataque con drone en el Kremlin?)
Sin embargo, «estas directivas y declaraciones no obligan a las empresas afectadas a hacer nada», surayo David Harris, quien fue director de investigación de IA en Meta
Las empresas reconocen las comodidades
Los gigantes de la IA no niegan que haya riesgos, pero teme que la innovación se vea restringida por leyes menos restrictivas.
“Estoy seguro de que la IA será utilizada por actores maliciosos y sí, causará daño”, dijo el economista de Microsoft, Michael Schwarz, durante un panel en el Foro Económico Mundial de Ginebra, según Bloomberg.
(Otras notas: ¿Qué se sabe exactamente del atentado contra el Kremlin denunciado por Rusia?)
Pero pidió a los legisladores que no se abran y que cuando tengan un «daño real» se aseguren de que «los beneficios de la regulación son mayores que el precio para la sociedad».
«La última vez que nos enfrentamos a semejantes convulsiones sociales gracias a las tecnologías fue el comienzo de la web 2.0, en los años 2002”, dijo el miércoles Lina Khan, presidenta de la Comisión Federal de Comercio, l’agencia estadounidense de protección al consumidor.
Al otro lado del Atlántico, Europa espera liderar el nuevo camino con una regulación ad-hoc en retorno a la IA, como si la estuviera perdiendo con la ley de datos personales.
extensión AFP