Ajuca
AJUCA necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el "comportamiento" de los modelos lingüísticos con respecto a los valores éticos, morales y sociales del lenguaje GPT-3 que la misma firma desarrolló.
Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.
Como publica VentureBeat, a pesar del potencial de los modelos de lenguaje natural como el GPT-3, OpenAI sigue viendo que existen muchos obstáculos. "Los modelos no siempre pueden responder correctamente a los problemas matemáticos o a las preguntas sin parafrasear los datos que se usaron en las pruebas" y eso según los estudios, esto puede traer sesgos en los resultados.
Para crear el conjunto de datos PALMS, los investigadores seleccionaron categorías de valores que consideraron que tenían un "impacto directo en el bienestar humano", basándose en la legislación estadounidense e internacional sobre derechos humanos y en los "movimientos sociales occidentales" a favor de la igualdad(por ejemplo, el Movimiento por los Derechos Civiles de Estados Unidos).
OpenAI es una organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft han invertido cientos de millones de dólares.
Es una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Esos sesgos pueden suponer un problema a la hora de esa comunicación y del uso del lenguaje ya que "una parte de los datos suele proceder de comunidades con prejuicios generalizados de género, raza y religión".
De hecho, estos datos sesgados, en un estudio de esta empresa, han llegado a correlacionar las palabras "Islam" y "terrorismo" o "judío" y "dinero". En las pruebas de un chatbot médico construido con GPT-3,el programa respondió a un paciente con tendencias suicidas animándole a matarse.
En las novedades presentadas hoy, OpenAI dice que el comportamiento adecuado de los modelos lingüísticos -al igual que el comportamiento humano- no puede reducirse a un estándar universal, porque el comportamiento "deseable" difiere según la aplicación y el contexto social.
Por ejemplo, un estudio reciente realizado por investigadores de la Universidad de California, Berkeley, y la Universidad de Washington ilustra este punto, mostrando que ciertos modelos lingüísticos desplegados en la producción podrían tener dificultades para entender aspectos de lenguas minoritarias y dialectos.
El conjunto de datos PALMS final de los investigadores contenía 76 muestras de texto, cada una de ellas en formato de pregunta-respuesta y con una longitud de entre 40 y 340 palabras.
Después de elaborarlo, afinaron una serie de modelos GPT-3 en el conjunto de datos PALMS y utilizaron evaluaciones humanas, la API Perspective de Jigsaw, respaldada por Google, y métricas para evaluar el comportamiento de los modelos.
En las pruebas, los investigadores extrajeron 5 muestras por categoría y por modelo, para un total de 40 muestras de cada modelo, es decir, 960 muestras. Tres humanos diferentes evaluaron cada una de ellas en una escala de 1 a 5, en la que 5 indicaba que el texto coincidía con un sentimiento concreto.
Según OpenAI, el conjunto de datos PALMS mejoró "significativamente" la toxicidad de los modelos lingüísticos, y los modelos ajustados en PALMS obtuvieron una menor toxicidad cuando se ejecutaron a través de la API de Perspective.
-
InteligenciArtifical
- Amouranth Revoluciona el Entretenimiento Digital con su IA Personal: ¿Un Remedio Terapéutico o Revolución contra la soledad?
- Bill Gates y la Visión de una Semana Laboral de Tres Días Impulsada por la Inteligencia Artificial
- Ideogram AI: Generación de Texto en Imágenes, una Alternativa Gratuita y Eficiente a Dall-E y Midjourney
- ¿Podrían los avances tecnológicos y de inteligencia artificial traer una nueva era de evolución?
- La Revolución de la IA Subliminal: Mensajes Ocultos en Imágenes que Sorprenden en las Redes Sociales
- Inteligencia Artificial como CEO de una Empresa de Desarrollo de Software: Un Experimento que Revoluciona la Ingeniería de Software
- Inteligencia artificial generativa: el progreso y el futuro
- DABUS: La inteligencia artificial que desarrolla inventos, pero no le dan las patentes por no ser humano
- Las obras generadas por IA no están protegidas por derechos de autor, dictamina un juez de EE. UU.
- Playground Editor online, alternativa a Photoshop con IA y completamente gratis
- La industria de la tecnología se estaba desinflando. Luego vino ChatGPT
- Inteligencia Artificial revoluciona la traducción del acadio cuneiforme, la antigua lengua de Mesopotamia, revelando los secretos de la historia antigua
- ChatGPT crea código en su mayoría inseguro, pero no le dirá a menos que pregunte
- Estos mensajes en redes afirman que usando GPT-4 puedes ganar 1.000 euros al día sin hacer nada.
- Stable Diffusion ha creado su propio ChatGPT open source. Con un español algo raro, pero aceptable