कि भले ही Superhuman AI विकसित करना जोखिम भरा है, हमें आगे बढ़ना होगा। एक ब्लॉग पोस्ट में, उन्होंने अधिक सरकारी निगरानी, जनसहभागिता और डेवलपर्स के बीच सहयोग की मांग की है ताकि AI का सुरक्षित और जिम्मेदार विकास संभव हो सके। OpenAI को यह मान्यता है कि सुपरइंटेलिजेंट AI की रचना रोकना मुश्किल और संभवतः अप्रभावी होगा। वे मानवता की सुरक्षा के लिए उचित नियंत्रण और शासन तंत्र के विकास की आवश्यकता पर जोर देते हैं। इसी बीच, AI के आसपास के विनियामक अनिश्चितता का प्रभाव क्रिप्टोकरंसी और फिनटेक जैसे क्षेत्रों को प्रभावित कर रहा है, जहां AI-आधारित समाधान व्यापक रूप से प्रचलित हैं।