Ajuca

AJUCA necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Un artículo (PDF) de investigadores de la Universidad de Cambridge, respaldado por voces de numerosas instituciones académicas, incluida OpenAI, propone interruptores de apagado remoto y bloqueos como métodos para mitigar los riesgos asociados con las tecnologías avanzadas de IA. También recomienda realizar un seguimiento de las ventas de chips de IA a nivel mundial. El Registro informa:

El documento destaca numerosas formas en que los formuladores de políticas podrían abordar la regulación del hardware de IA. Muchas de las sugerencias, incluidas aquellas diseñadas para mejorar la visibilidad y limitar la venta de aceleradores de IA, ya se están aplicando a nivel nacional. El año pasado, el presidente de Estados Unidos, Joe Biden, presentó una orden ejecutiva destinada a identificar empresas que desarrollen grandes modelos de IA de doble uso, así como proveedores de infraestructura capaces de entrenarlos. Si no está familiarizado, "doble uso" se refiere a tecnologías que pueden cumplir una doble función en aplicaciones civiles y militares. Más recientemente, el Departamento de Comercio de EE.UU. propuso una regulación que requeriría que los proveedores estadounidenses de nube implementaran políticas más estrictas de "conozca a su cliente" para evitar que personas o países de interés eludan las restricciones a las exportaciones. Este tipo de visibilidad es valiosa, señalan los investigadores, ya que podría ayudar a evitar otra carrera armamentista, como la provocada por la controversia sobre la brecha de misiles, donde informes erróneos llevaron a una acumulación masiva de misiles balísticos. Si bien son valiosos, advierten que el cumplimiento de estos requisitos de presentación de informes corre el riesgo de invadir la privacidad del cliente e incluso provocar la filtración de datos confidenciales.

Mientras tanto, en el frente comercial, el Departamento de Comercio ha seguido intensificando las restricciones, limitando el rendimiento de los aceleradores vendidos a China. Pero, como informamos anteriormente, si bien estos esfuerzos han dificultado que países como China tengan en sus manos chips estadounidenses, están lejos de ser perfectos. Para abordar estas limitaciones, los investigadores propusieron implementar un registro global para las ventas de chips de IA que los rastrearía a lo largo de su ciclo de vida, incluso después de que hayan abandonado su país de origen. Sugieren que un registro de este tipo podría incorporar un identificador único en cada chip, lo que podría ayudar a combatir el contrabando de componentes.

En el extremo más extremo del espectro, los investigadores han sugerido que se podrían incorporar interruptores de apagado en el silicio para evitar su uso en aplicaciones maliciosas. [...] Los académicos son más claros en otra parte de su estudio, proponiendo que los reguladores podrían desactivar o reducir la funcionalidad del procesador de forma remota mediante licencias digitales: "Los coprocesadores especializados que se encuentran en el chip podrían contener un "certificado" digital firmado criptográficamente. ", y las actualizaciones de la política de casos de uso podrían entregarse de forma remota a través de actualizaciones de firmware. La autorización para la licencia en el chip podría ser renovada periódicamente por el regulador, mientras que el productor del chip podría administrarla. Una licencia vencida o ilegítima causaría la chip no funcione o reduzca su rendimiento." En teoría, esto podría permitir a los organismos de control responder más rápido a los abusos de tecnologías sensibles cortando el acceso a los chips de forma remota, pero los autores advierten que hacerlo no está exento de riesgos. La implicación es que, si se implementa incorrectamente, dicho interruptor de apagado podría convertirse en un objetivo para que los ciberdelincuentes lo exploten.

Otra propuesta requeriría que varias partes aprueben tareas de entrenamiento de IA potencialmente riesgosas antes de que puedan implementarse a escala. "Las armas nucleares utilizan mecanismos similares llamados enlaces de acción permisivos", escribieron. En el caso de las armas nucleares, estos bloqueos de seguridad están diseñados para evitar que una persona se vuelva rebelde y lance un primer ataque. Sin embargo, para la IA, la idea es que si un individuo o una empresa quisiera entrenar un modelo por encima de un cierto umbral en la nube, primero necesitaría obtener autorización para hacerlo. Aunque es una herramienta potente, los investigadores observan que esto podría resultar contraproducente al impedir el desarrollo de la IA deseable. El argumento parece ser que, si bien el uso de armas nucleares tiene un resultado bastante claro, la IA no siempre es tan blanca o negra. Pero si esto le parece demasiado distópico para su gusto, el artículo dedica una sección entera a reasignar recursos de IA para el mejoramiento de la sociedad en su conjunto. La idea es que los responsables políticos podrían unirse para hacer que la computación de IA sea más accesible para grupos que probablemente no la utilicen para el mal, un concepto descrito como "asignación".

No estás registrado para postear comentarios


Siguenos:


 
 

Suscriberse a Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Buscar

¿Quien está online?

Hay 102 invitados y ningún miembro en línea

Formulario de Acceso

Filtro de Categorías