fbpx
Conecta con nosotros

Mundo

Carta abierta de los expertos de OpenAI advierte sobre “riesgos graves”

Publicado hace

en

“Las empresas de inteligencia artificial tienen fuertes incentivos financieros para evitar una supervisión efectiva”, se lee en la carta abierta.

También pidieron a las empresas de inteligencia artificial que fomenten “una cultura de crítica abierta” que dé la bienvenida, en lugar de castigar, a las personas que expresan sus preocupaciones, especialmente cuando la ley lucha por ponerse al día con el rápido avance de la tecnología.

Las empresas han reconocido los “graves riesgos” que plantea la IA –desde la manipulación hasta una pérdida de control, conocida como “singularidad, que podría resultar potencialmente en la extinción humana–, pero deberían hacer más para educar al público sobre los riesgos y las medidas de protección, escribió el grupo. Tal como está vigente la ley, dijeron los empleados de IA, no creen que las empresas de IA compartan información clave sobre la tecnología de forma voluntaria.

Es esencial, entonces, que los empleados actuales y anteriores hablen y que las empresas no apliquen acuerdos de “descrédito” ni tomen represalias contra quienes expresan preocupaciones relacionadas con el riesgo. “Las protecciones ordinarias a los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que nos preocupan aún no están regulados”, escribió el grupo.

Su carta llega en un momento en que las empresas se apresuran a implementar herramientas de IA generativa en sus productos, mientras los reguladores gubernamentales, las empresas y los consumidores luchan por un uso responsable. Mientras tanto, muchos expertos en tecnología, investigadores y líderes han pedido una pausa temporal en la carrera de la IA, o que el gobierno intervenga y cree una moratoria.

En respuesta a la carta, el portavoz de OpenAI dijo a CNN que está “orgulloso de nuestro historial proporcionando los sistemas de IA más capaces y seguros y cree en nuestro enfoque científico para abordar el riesgo”, y agregó que la compañía está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”.

OpenAI señaló que tiene una línea directa de integridad anónima y un Comité de Seguridad dirigido por miembros de su junta directiva y líderes de seguridad de la empresa. La empresa no vende información personal, no crea perfiles de usuario ni utiliza esos datos para dirigirse a nadie ni vender nada. Sin embargo, Daniel Ziegler, uno de los organizadores detrás de la carta y uno de los primeros ingenieros de aprendizaje automático que trabajó en OpenAI entre 2018 y 2021, dijo a CNN que es importante permanecer escéptico sobre el compromiso de la empresa con la transparencia.

“Es realmente difícil decir desde fuera qué tan en serio están tomando sus compromisos de aumentar la seguridad y determinar los daños sociales, especialmente porque existen fuertes presiones comerciales para actuar muy rápido”, dijo. “Es realmente importante tener la cultura y los procesos adecuados para que los empleados puedan expresarse de manera específica cuando tengan inquietudes”.

Espera que más profesionales de la industria de la IA hagan públicas sus preocupaciones como resultado de la carta. Mientras tanto, se espera que Apple anuncie una asociación con OpenAI en su Conferencia Mundial de Desarrolladores anual para llevar la IA generativa al iPhone.

"Vemos la IA generativa como una oportunidad clave en todos nuestros productos y creemos que tenemos ventajas que nos diferencian en eso", dijo el director ejecutivo de Apple, Tim Cook, en la conferencia telefónica sobre resultados más reciente de la compañía a principios de mayo.

Via: cnn

© 2024 Centra News | Todos los derechos reservados.