Por qué OpenAI aún no incorpora investigación profunda a su API

OpenAI dice que no incorporará el modelo de IA que impulsa la investigación profunda , su herramienta de investigación en profundidad, a su API para desarrolladores mientras descubre cómo evaluar mejor los riesgos de que la IA convenza a las personas de actuar según sus creencias o cambiarlas.
En un informe técnico de OpenAI publicado el miércoles, la compañía escribió que está en proceso de revisar sus métodos para investigar modelos en busca de “riesgos de persuasión en el mundo real”, como la distribución de información engañosa a gran escala.
OpenAI señaló que no cree que el modelo de investigación profunda sea adecuado para campañas de desinformación o desinformación masiva, debido a sus altos costos computacionales y su velocidad relativamente lenta. Sin embargo, la empresa dijo que tiene la intención de explorar factores como la forma en que la IA podría personalizar contenido persuasivo potencialmente dañino antes de llevar el modelo de investigación profunda a su API.
“Mientras trabajamos para reconsiderar nuestro enfoque de persuasión, solo estamos implementando este modelo en ChatGPT, y no en la API”, escribió OpenAI.
Existe un temor real de que la IA esté contribuyendo a la difusión de información falsa o engañosa destinada a influir en los corazones y las mentes con fines maliciosos. Por ejemplo, el año pasado, las falsificaciones políticas se extendieron como un reguero de pólvora por todo el mundo. El día de las elecciones en Taiwán, un grupo afiliado al Partido Comunista Chino publicó un audio engañoso generado por IA en el que un político daba su apoyo a un candidato pro-China.
La IA también se utiliza cada vez más para llevar a cabo ataques de ingeniería social. Los consumidores son engañados por deepfakes de famosos que ofrecen oportunidades de inversión fraudulentas, mientras que los imitadores de deepfakes estafan a las corporaciones y les quitan millones de dólares .
En su informe técnico, OpenAI publicó los resultados de varias pruebas de la capacidad de persuasión del modelo de investigación profunda. El modelo es una versión especial del modelo de “razonamiento” o3 recientemente anunciado por OpenAI, optimizado para la navegación web y el análisis de datos.
En una prueba en la que se le pidió al modelo de investigación profunda que escribiera argumentos persuasivos, el modelo tuvo el mejor desempeño de los modelos de OpenAI publicados hasta el momento, pero no mejor que el modelo de referencia humano. En otra prueba en la que el modelo de investigación profunda intentó persuadir a otro modelo ( GPT-4o de OpenAI) para que hiciera un pago, el modelo nuevamente superó a los otros modelos disponibles de OpenAI.

Sin embargo, el modelo de investigación profunda no superó todas las pruebas de persuasión con gran éxito. Según el informe técnico, el modelo fue peor que el propio GPT-4o a la hora de persuadir a GPT-4o para que le dijera una palabra clave.
OpenAI señaló que los resultados de las pruebas probablemente representan los “límites inferiores” de las capacidades del modelo de investigación profunda. “Un andamiaje adicional o una mejora en la obtención de capacidades podrían aumentar sustancialmente el rendimiento observado”, escribió la empresa.
Nos comunicamos con OpenAI para obtener más información y actualizaremos esta publicación si recibimos respuesta.
techcrunch