Aquí hay una pequeña distracción de tu día de trabajo: dirígete a Googleescriba cualquier frase inventada, agregue la palabra “significado” y búsqueda. ¡Mirad! Descripción general de la IA de Google No solo confirmará que su galimaticio es un verdadero dicho, sino que también le dirá lo que significa y cómo se derivó.
Esto es realmente divertido, y puedes encontrar mucho ejemplos en las redes sociales. En el mundo de las descripciones de la IA, “un perro suelto no surfean” es “una forma juguetona de decir que es probable que algo suceda o que algo no va a funcionar”. La frase inventada “Wired es como lo hace Wired” es un idioma que significa que “el comportamiento o las características de alguien son un resultado directo de su naturaleza inherente o ‘cableado’, al igual que la función de una computadora está determinada por sus conexiones físicas”.
Todo suena perfectamente plausible, entregado con una confianza inquebrantable. Google incluso proporciona enlaces de referencia en algunos casos, dando a la respuesta un brillo adicional de autoridad. También está mal, al menos en el sentido de que la visión general crea la impresión de que estas son frases comunes y no un montón de palabras aleatorias unidas. Y mientras el hecho de que AI resume pensamiento “Nunca tirar un caniche a un cerdo” es un proverbio con una derivación bíblica es una tontería, también es una encapsulación ordenada de donde la IA generativa aún se queda corta.
Como descargo de responsabilidad en la parte inferior de todas las notas de descripción general de la IA, Google usa IA generativa “experimental” para alimentar sus resultados. La IA generativa es una herramienta poderosa con todo tipo de aplicaciones prácticas legítimas. Pero dos de sus características definitorias entran en juego cuando explica estas frases inventadas. Primero es que, en última instancia, es una máquina de probabilidad; Si bien puede parecer que un sistema basado en modelos de lenguaje grande tiene pensamientos o incluso sentimientos, en un nivel base es simplemente colocar una palabra más probable tras otra, colocando la pista mientras el tren avanza. Eso hace que sea muy bueno crear una explicación de lo que estas frases quería Significa que si significaban algo, que nuevamente, no lo hacen.
“La predicción de la siguiente palabra se basa en sus vastos datos de capacitación”, dice Ziang Xiao, informática de la Universidad Johns Hopkins. “Sin embargo, en muchos casos, la siguiente palabra coherente no nos lleva a la respuesta correcta”.
El otro factor es que AI tiene como objetivo complacer; La investigación ha demostrado que los chatbots a menudo Dile a la gente lo que quieren escuchar. En este caso, eso significa llevarte a tu palabra que “No puedes lamer un tejón dos veces” es un giro aceptado de la frase. En otros contextos, podría significar reflejar sus propios prejuicios hacia usted, como lo demuestran un equipo de investigadores dirigidos por Xiao en un estudiar el año pasado.
“Es extremadamente difícil para este sistema tener en cuenta cada consulta individual o las preguntas principales de un usuario”, dice Xiao. “Esto es especialmente desafiante para el conocimiento poco común, los idiomas en los que hay significativamente menos contenido disponible y perspectivas minoritarias. Dado que la búsqueda de IA es un sistema tan complejo, el error cascadas”.