Ajuca

AJUCA necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

PC Magazine entrevistó recientemente a Janelle Shane, la científica de investigación óptica y experimentadora de IA que escribió el nuevo libro "Pareces una cosa y te amo: cómo funciona la inteligencia artificial y por qué está haciendo del mundo un lugar más extraño". "You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It's Making the World a Weirder Place."

En un momento, Shane explica por qué cualquier IA de "recuadro negro" puede ser un problema:

Creo que la ética en la IA debe incluir algún reconocimiento de que las IA generalmente no nos dicen cuándo han llegado a sus respuestas a través de métodos problemáticos. Por lo general, todo lo que vemos es la decisión final, y algunas personas han tenido la tentación de tomar la decisión "como imparcial" únicamente porque estaba involucrada una máquina. Creo que el uso ético de la IA tendrá que implicar el examen de las decisiones de IA. Si no podemos mirar dentro del recuadro negro, al menos podemos realizar estadísticas sobre las decisiones de la IA y buscar problemas sistemáticos o fallas extrañas... Hay algunos investigadores que ya ejecutan estadísticas sobre algunos algoritmos de alto perfil, pero las personas que programan estos algoritmos tienen la responsabilidad de hacer la debida diligencia en su propio trabajo. Esto es además de ser más ético acerca de si un algoritmo particular debe ser construido en absoluto...

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

En los últimos tiempos no dejan de aparecer aplicaciones de inteligencia artificial que muestran una impresionante precisión a la hora de generar personas, casas o gatos que no existen. El avance se debe a las Redes generativas antagónicas GAN), que pueden generar datos desde cero empleando dos redes neuronales enfrentadas.

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

El problema del libre albedrío es uno de los grandes enigmas sin resolver en la ciencia, por no hablar de la filosofía, la teología, jurisprudencia, etc. La pregunta básica es si somos capaces de tomar decisiones por nosotros mismos o si los resultados están predeterminados y la noción de la elección no es más que una ilusión. Ahora, un físico teórico ha esbozado una 'Test de Turing' para el libre albedrío y dice que mientras que los dispositivos simples, tales como termostatos no pueden pasarlo, otros más complejos como iPhones si podrían. La prueba se basa en una extensión del problema de la parada de Turing en ciencias de la computación. Esto indica que no hay modo general de conocer cómo un algoritmo terminará al ejecutarlo. Esto significa que cuando un ser humano tiene que tomar una decisión, no hay manera de saber de antemano cómo va a terminar.


Siguenos:


 
 

Suscriberse a Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Buscar

¿Quien está online?

Hay 111 invitados y ningún miembro en línea

Formulario de Acceso

Filtro de Categorías