OpenAI lanza una nueva iniciativa de seguridad de IA

OpenAI ha presentado una nueva recurso en línea, el "Centro de Evaluaciones de Seguridad", con el objetivo de compartir públicamente datos e información sobre desempeño de seguridad de sus modelos de inteligencia artificial. Esta iniciativa tiene como objetivo brindar transparencia sobre aspectos cruciales como las tasas de alucinación de los modelos, la su tendencia a generar contenido dañino, la precisión con que son seguidas de instrucciones y su resistencia a los intentos de violación. La compañía destaca que este nuevo centro representa un paso adelante hacia una mayor apertura, en un en un momento en el que se enfrenta a varios desafíos legales, incluidos aquellos por presunto uso ilícito de material Derechos de autor para entrenar tus propios modelos. El El "Centro de Evaluaciones de Seguridad" está diseñado para ampliar la Información ya disponible en las hojas de sistema de OpenAI. Si bien estos ofrecen una instantánea de las medidas de seguridad de Un modelo en el lanzamiento, el centro está diseñado para proporcionar Actualizaciones continuas. En una nota oficial, OpenAI ha declaró que quería "compartir el progreso en el desarrollo de medir la capacidad y seguridad de los modelos'. La intención es doble: por un lado, facilitar la comprensión de la actuación de los sistemas y por otro lado incrementar los esfuerzos colectivos para Aumentar la transparencia en el sector. La empresa también tiene Expresó la intención de trabajar hacia una comunicación más efectiva proactivo en este ámbito a todos los niveles. Dentro Del centro, los usuarios interesados pueden explorar diferentes Secciones dedicadas, donde encontrará información relevante para diversos modelos, desde Gpt-4.1 hasta las versiones más recientes, como la 4.5.
ansa