Home Technology OpenAI está poniendo a prueba sus poderes de persuasión

OpenAI está poniendo a prueba sus poderes de persuasión

20
0
OpenAI está poniendo a prueba sus poderes de persuasión
ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab

Esta semana, Sam Altman, director ejecutivo de OpenAI, y Arianna Huffington, fundadora y directora ejecutiva de la empresa de salud Thrive Global, publicaron Un artículo en Time promocionando Inteligencia artificial Thriveuna startup respaldada por Thrive y el fondo de startups de OpenAI. El artículo sugiere que la IA podría tener un enorme impacto positivo en la salud pública al convencer a las personas de adoptar conductas más saludables.

Altman y Huffington escriben que Thrive AI está trabajando para lograr “un entrenador personal de IA totalmente integrado que ofrece sugerencias y recomendaciones en tiempo real exclusivas para usted que le permiten tomar medidas en sus comportamientos diarios para mejorar su salud”.

Su visión le da un giro positivo a lo que bien podría resultar uno de los filos más agudos de la IA. Los modelos de IA ya son expertos en persuadir a la gente, y no sabemos cuánto más poderosos podrían llegar a ser a medida que avancen y obtengan acceso a más datos personales.

Alexander Madry, profesor en año sabático del Instituto Tecnológico de Massachusetts, dirige un equipo en OpenAI llamado Preparedness que trabaja en ese mismo tema.

“Una de las áreas de trabajo en la preparación es la persuasión”, dijo Madry a WIRED en una entrevista en mayo. “Básicamente, se trata de pensar hasta qué punto se pueden utilizar estos modelos como una forma de persuadir a la gente”.

Madry dice que se sintió atraído a unirse a OpenAI por el notable potencial de los modelos lingüísticos y porque los riesgos que plantean apenas han sido estudiados. “Literalmente, casi no hay ciencia”, dice. “Ese fue el impulso para el esfuerzo de preparación”.

La capacidad de persuasión es un elemento clave en programas como ChatGPT y uno de los ingredientes que hace que estos chatbots sean tan atractivos. Los modelos de lenguaje se entrenan en escritura y diálogo humanos que contienen innumerables trucos y técnicas retóricas y persuasivas. Los modelos también suelen ajustarse para que se desvíen hacia expresiones que los usuarios encuentran más convincentes.

Investigación liberado En abril, Anthropic, un competidor fundado por exiliados de OpenAI, sugirió que los modelos de lenguaje se han vuelto mejores para persuadir a las personas a medida que han crecido en tamaño y sofisticación. Esta investigación implicó dar una declaración a voluntarios y luego ver cómo un argumento generado por IA cambiaba su opinión al respecto.

El trabajo de OpenAI se extiende al análisis de la IA en conversación con los usuarios, algo que puede generar una mayor capacidad de persuasión. Madry dice que el trabajo se está realizando con voluntarios que dan su consentimiento y se niega a revelar los hallazgos hasta la fecha. Pero dice que el poder persuasivo de los modelos de lenguaje es profundo. “Como humanos, tenemos esta ‘debilidad’ de que si algo se comunica con nosotros en lenguaje natural, [we think of it as if] “Es un ser humano”, dice, aludiendo a un antropomorfismo que puede hacer que los chatbots parezcan más reales y convincentes.

El artículo de Time sostiene que los posibles beneficios para la salud de la IA persuasiva requerirán fuertes salvaguardas legales porque los modelos pueden tener acceso a mucha información personal. “Los responsables de las políticas deben crear un entorno regulatorio que fomente la innovación en IA y al mismo tiempo proteja la privacidad”, escriben Altman y Huffington.

Pero esto no es todo lo que los responsables de las políticas deben tener en cuenta. También puede ser crucial sopesar cómo se pueden utilizar indebidamente algoritmos cada vez más persuasivos. Los algoritmos de inteligencia artificial podrían aumentar la resonancia de la desinformación o generar estafas de phishing particularmente convincentes. También podrían utilizarse para publicitar productos.

Madry dice que una pregunta clave, que aún no ha sido estudiada por OpenAI ni por otros, es cuánto más convincentes o coercitivos podrían llegar a ser los programas de IA que interactúan con los usuarios durante largos períodos de tiempo. Ya varias empresas ofrecen chatbots que juegan a ser parejas románticas y otros personajes. Las novias de IA son cada vez más populares; algunas incluso están diseñadas para para gritarte—Pero cuán adictivos y persuasivos son estos bots es en gran medida desconocido.

El entusiasmo y el revuelo generados por ChatGPT tras su lanzamiento en noviembre de 2022 hicieron que OpenAI, investigadores externos y muchos responsables de políticas se centraran en la pregunta más hipotética de si algún día la IA podría volverse contra sus creadores.

Madry dice que esto corre el riesgo de ignorar los peligros más sutiles que plantean los algoritmos elocuentes. “Me preocupa que se centren en las preguntas equivocadas”, dice Madry sobre el trabajo de los responsables políticos hasta ahora. “Que en cierto sentido, todo el mundo diga: ‘Ah sí, lo estamos abordando porque estamos hablando de ello’, cuando en realidad no estamos hablando de lo correcto”.

Source link