Ajuca
AJUCA necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
PC Magazine entrevistó recientemente a Janelle Shane, la científica de investigación óptica y experimentadora de IA que escribió el nuevo libro "Pareces una cosa y te amo: cómo funciona la inteligencia artificial y por qué está haciendo del mundo un lugar más extraño". "You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It's Making the World a Weirder Place."
En un momento, Shane explica por qué cualquier IA de "recuadro negro" puede ser un problema:
Creo que la ética en la IA debe incluir algún reconocimiento de que las IA generalmente no nos dicen cuándo han llegado a sus respuestas a través de métodos problemáticos. Por lo general, todo lo que vemos es la decisión final, y algunas personas han tenido la tentación de tomar la decisión "como imparcial" únicamente porque estaba involucrada una máquina. Creo que el uso ético de la IA tendrá que implicar el examen de las decisiones de IA. Si no podemos mirar dentro del recuadro negro, al menos podemos realizar estadísticas sobre las decisiones de la IA y buscar problemas sistemáticos o fallas extrañas... Hay algunos investigadores que ya ejecutan estadísticas sobre algunos algoritmos de alto perfil, pero las personas que programan estos algoritmos tienen la responsabilidad de hacer la debida diligencia en su propio trabajo. Esto es además de ser más ético acerca de si un algoritmo particular debe ser construido en absoluto...
Leer más: Los peligros de la IA de 'Black Box' Escribir un comentario
En los últimos tiempos no dejan de aparecer aplicaciones de inteligencia artificial que muestran una impresionante precisión a la hora de generar personas, casas o gatos que no existen. El avance se debe a las Redes generativas antagónicas GAN), que pueden generar datos desde cero empleando dos redes neuronales enfrentadas.
El problema del libre albedrío es uno de los grandes enigmas sin resolver en la ciencia, por no hablar de la filosofía, la teología, jurisprudencia, etc. La pregunta básica es si somos capaces de tomar decisiones por nosotros mismos o si los resultados están predeterminados y la noción de la elección no es más que una ilusión. Ahora, un físico teórico ha esbozado una 'Test de Turing' para el libre albedrío y dice que mientras que los dispositivos simples, tales como termostatos no pueden pasarlo, otros más complejos como iPhones si podrían. La prueba se basa en una extensión del problema de la parada de Turing en ciencias de la computación. Esto indica que no hay modo general de conocer cómo un algoritmo terminará al ejecutarlo. Esto significa que cuando un ser humano tiene que tomar una decisión, no hay manera de saber de antemano cómo va a terminar.
-
InteligenciArtifical
- Amouranth Revoluciona el Entretenimiento Digital con su IA Personal: ¿Un Remedio Terapéutico o Revolución contra la soledad?
- Bill Gates y la Visión de una Semana Laboral de Tres Días Impulsada por la Inteligencia Artificial
- Ideogram AI: Generación de Texto en Imágenes, una Alternativa Gratuita y Eficiente a Dall-E y Midjourney
- ¿Podrían los avances tecnológicos y de inteligencia artificial traer una nueva era de evolución?
- La Revolución de la IA Subliminal: Mensajes Ocultos en Imágenes que Sorprenden en las Redes Sociales
- Inteligencia Artificial como CEO de una Empresa de Desarrollo de Software: Un Experimento que Revoluciona la Ingeniería de Software
- Inteligencia artificial generativa: el progreso y el futuro
- DABUS: La inteligencia artificial que desarrolla inventos, pero no le dan las patentes por no ser humano
- Las obras generadas por IA no están protegidas por derechos de autor, dictamina un juez de EE. UU.
- Playground Editor online, alternativa a Photoshop con IA y completamente gratis
- La industria de la tecnología se estaba desinflando. Luego vino ChatGPT
- Inteligencia Artificial revoluciona la traducción del acadio cuneiforme, la antigua lengua de Mesopotamia, revelando los secretos de la historia antigua
- ChatGPT crea código en su mayoría inseguro, pero no le dirá a menos que pregunte
- Estos mensajes en redes afirman que usando GPT-4 puedes ganar 1.000 euros al día sin hacer nada.
- Stable Diffusion ha creado su propio ChatGPT open source. Con un español algo raro, pero aceptable