OpenAI crée un comité de sûreté et de sécurité
OpenAI prend des mesures importantes pour donner la priorité à la sûreté et à la sécurité dans ses progrès en matière d'intelligence artificielle en introduisant un nouveau comité de sûreté et de sécurité. Ce comité vise à respecter des normes strictes pour assurer un développement responsable de l’intelligence artificielle générale (AGI).
Points clés:
– Le comité de sûreté et de sécurité évaluera les mesures et protocoles de sécurité actuels au sein d’OpenAI au cours des 90 prochains jours.
– Le comité comprend des experts comme Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki.
– Des conseillers externes comme Rob Joyce et John Carlin amélioreront encore l'approche d'OpenAI en matière de sûreté et de sécurité.
En réunissant une équipe d'experts techniques et politiques, OpenAI s'engage à fournir une surveillance complète des questions de sûreté et de sécurité. Cet effort de collaboration aidera à naviguer dans les complexités du développement d’AGI tout en abordant les risques potentiels de manière responsable.
Alors qu’OpenAI continue de repousser les limites des capacités de l’IA, elle reste déterminée à garantir que ses innovations sont développées avec les plus hauts standards de responsabilité. Restez à l'écoute des mises à jour sur la manière dont ce comité de sûreté et de sécurité façonnera l'avenir du développement de l'IA chez OpenAI.