Los investigadores no pueden decir si pueden eliminar completamente las alucinaciones de la IA: parte "inherente" del uso "desadaptado"
La ex litigante Jacqueline Schafer, directora ejecutiva y fundadora de Clearbrief, dijo que la IA se utiliza con frecuencia en los tribunales y creó Clearbrief para verificar citaciones y documentos judiciales creados por IA generativa.
Algunos investigadores están cada vez más convencidos de que no podrán eliminar las alucinaciones de los modelos de inteligencia artificial (IA), que siguen siendo un obstáculo considerable para la aceptación pública a gran escala.
"Actualmente no entendemos mucho de la naturaleza de la caja negra de cómo el aprendizaje automático llega a sus conclusiones", dijo a Fox News Digital Kevin Kane, director ejecutivo de la empresa de cifrado cuántico American Binary. "Bajo el enfoque actual para recorrer este camino de la IA, no está claro cómo lo haríamos. Tendríamos que cambiar mucho la forma en que funcionan".
Las alucinaciones, un nombre para la información inexacta o el texto sin sentido que puede producir la IA, han plagado grandes modelos de lenguaje como ChatGPT durante casi toda su exposición pública.
Los críticos de la IA se centraron inmediatamente en las alucinaciones como una razón para dudar de la utilidad de las distintas plataformas, argumentando que las alucinaciones podrían exacerbar problemas ya graves de desinformación.
LOS PROGRAMAS POPULARES IMPULSADOS POR IA ESTÁN HACIENDO UN ERROR EN LA SALA DEL TRIBUNAL, Afirman EXPERTOS
Una ilustración del 4 de mayo de 2023 (Reuters/Dado Ruvic/Ilustración)
Los investigadores rápidamente realizaron esfuerzos para eliminar las alucinaciones y mejorar este "problema conocido", pero es posible que este "problema de procesamiento de datos" nunca desaparezca debido al "caso de uso", el hecho de que la IA puede tener problemas con algunos temas, dijo Christopher Alexander, jefe de análisis. Oficial de Pioneer Development Group.
"Creo que es absurdo decir que puedes resolver todos los problemas, como decir que nunca podrás solucionarlos", dijo Alexander a Fox News Digital. "Creo que la verdad se encuentra en algún punto intermedio, y creo que variará mucho según el caso.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?
"Y si puedes documentar un problema, me resulta difícil creer que no puedas solucionarlo".
Emily Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington, dijo a The Associated Press que las alucinaciones pueden ser "irreparables" porque surgen de un desajuste "inherente" entre "la tecnología y el caso de uso propuesto".
Según Alexander, ese desajuste existe porque los investigadores han buscado aplicar la IA a múltiples casos y situaciones de uso.
ChatGPT es un modelo de lenguaje grande que funciona analizando conjuntos de datos masivos a partir de información disponible en Internet. (León Neal/Getty Images)
Mientras desarrollaba una IA para abordar un problema específico, el equipo de Alexander examinó los modelos existentes para reutilizarlos y realizar una tarea en lugar de construir un modelo completo. Afirmó que su equipo sabía que el programa no crearía resultados ideales, pero sospechaba que muchos grupos adoptan un enfoque similar sin aceptar la comprensión del rendimiento limitado como resultado.
"[Los investigadores] juntaron piezas de algo, y no necesariamente fue hecho para hacer eso, ¿y ahora lo que la IA va a hacer es ponerlo en las circunstancias? Probablemente no lo hagan del todo", explicó Alexander, sugiriendo que los investigadores Puede intentar perfeccionar la IA o crear modelos personalizados para tareas o industrias específicas en el futuro. "Por lo tanto, no creo que sea universal. Creo que se trata más bien de caso por caso".
¿QUÉ ES CHATGPT?
Kane dijo que establecer el objetivo de deshacerse de las alucinaciones es "peligroso", ya que los investigadores no comprenden completamente cómo funcionan los algoritmos detrás de la IA, pero parte de eso se debe a una falla en la comprensión de cómo funciona la IA en general.
"Gran parte del aprendizaje automático está a nuestra imagen", explicó Kane. "Queremos que nos hable de la misma manera que nosotros nos hablamos entre nosotros.
El logotipo de Nvidia mostrado en la pantalla de un teléfono y un microchip se ven en esta ilustración de Cracovia, Polonia, el 19 de julio de 2023. (Jakub Porzycki/NurPhoto vía Getty Images)
"Por lo general, intentamos diseñar sistemas que en cierto modo imiten cómo los humanos entienden la inteligencia, ¿verdad?" añadió. "Los humanos también son una caja negra y también tienen algunos de los mismos fenómenos. Entonces, la pregunta es, si queremos desarrollar inteligencia artificial, significa que queremos ser como los humanos.
"Bueno, si queremos ser como los humanos, tenemos que estar dispuestos a vivir con los peligros de eso".
Investigadores del MIT sugirieron que una forma de abordar el problema es permitir que múltiples modelos discutan entre sí en un método conocido como "sociedad de mentes" para obligar a los modelos a desgastarse entre sí hasta que ganen las respuestas "fácticas". informó.
LOS DESTACADOS IMPULSADOS POR IA SE SUMAN A UNA EXPERIENCIA DE VISUALIZACIÓN DE LA COPA MUNDIAL QUE CAMBIA EL JUEGO
Parte del problema surge del hecho de que la IA busca predecir "la siguiente palabra" en una secuencia y no necesariamente está entrenada para "decirle a la gente que no sabe lo que está haciendo" o para verificar ellos mismos los hechos.
Nvidia abordó el problema con un software llamado NeMo Guardrails, cuyo objetivo era mantener grandes modelos de lenguaje "precisos, apropiados, relacionados con el tema y seguros", pero la tecnología sólo apunta a mantener el programa enfocado, no necesariamente a verificar los hechos, ZD Net informó.
Alexander reconoció que, en algunos aspectos, los investigadores no comprenden completamente (caso por caso) cómo la IA puede hacer algunas de las cosas que ha hecho.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
En un ejemplo, Alexander describió una conversación con investigadores que le dijeron que los modelos de IA habían superado las expectativas sobre la rapidez con la que aprenderían y se desarrollarían. Cuando Alexander les preguntó cómo sucedió eso, los investigadores admitieron: "No lo sabemos".
La Prensa Asociada contribuyó a este informe.
Peter Aitken es reportero de Fox News Digital especializado en noticias nacionales y globales.
Reciba todas las historias que necesita saber del nombre más poderoso en noticias enviadas a primera hora de la mañana a su bandeja de entrada
Suscrito
¡Te has suscrito correctamente a este boletín!
PublicadoLOS PROGRAMAS POPULARES IMPULSADOS POR IA ESTÁN HACIENDO UN ERROR EN LA SALA DEL TRIBUNAL, Afirman EXPERTOS¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?¿QUÉ ES CHATGPT?LOS DESTACADOS IMPULSADOS POR IA SE SUMAN A UNA EXPERIENCIA DE VISUALIZACIÓN DE LA COPA MUNDIAL QUE CAMBIA EL JUEGOHAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS