OpenAI ने कुछ दिनों पहले ही अपने AI लैंग्वेज टूल ChatGPT में नए अपडेशन को पेश किया था, जिसमें OpenAI के CEO Sam Altman ने दावा किया था कि ChatGPT अब से सिर्फ लिखने का काम नहीं करेगा, बल्कि यह देखने, सुनने और बोलने का भी काम करेगा। ChatGPT में अपडेशन के साथ ही OpenAI ने खुद के AI चिप्स डेवलप करने की बात भी कही थी। लेकिन अब OpenAI एक अलग दिशा में काम कर रहा है। दरअसल, OpenAI अब AI से उत्पन्न होने वाले जोखिमों की जांच करेगा। इसके लिए कंपनी ने 25 अक्टूबर को घोषणा की है कि OpenAI, AI से उत्पन्न होने वाले जोखिमों पर नजर रखने, मूल्यांकन करने, पूर्वानुमान और सुरक्षा के लिए एक नई पहल को शुरू करने जा रहा है, जिसके लिए वह नई टीम को भी डेवलप कर रहा है।
OpenAI का कहना है कि इसकी नई टीम विशेष रूप से Chemical, Biological, Radiological, Nuclear Threats, Individualized Persuasion, Cybersecurity और Autonomous से जुड़े AI खतरों पर अपना पूरा ध्यान केंद्रित करेगी। OpenAI का ऐसा मानना है कि फ्रंटियर AI मॉडल, वर्तमान में मौजूद सबसे एडवांस मॉडल्स में पाई जाने वाली क्षमताओं से भी अधिक कुशल होगा। इसी के साथ यह मॉडल ह्यूमनिटी को लाभ पहुंचाने की भी क्षमता रखेगा। OpenAI यह स्वीकार करता है कि AI मॉडल बढ़ते विकास के साथ गंभीर जोखिम भी पैदा करते है। इसलिए यह बेहद ही जरूरी है कि इन जोखिमों को कम करने के लिए ऐसे टूल को डेवलप किया जाए, जो कि AI से जुड़े जोखिमों को खोजकर उन्हें कम करने में सहायक हो।
OpenAI, डिस्ट्रक्टिव अब्यूज को रोकने के लिए AI को लेकर पूरी तैयारी कर रहा है और अपनी नई टीम बनाने के लिए प्रतिभाओं की तलाश कर रहा है। जिससे इस सेक्टर में आने वाली चुनौतियों का सामना करने में मदद मिल सके। AI से जुड़े जोखिमों पर कई बार अलग-अलग रिसर्च करके चेतावनियां जारी की गई है। वहीं AI पर लगातार हो रहे इनोवेशन ने इस पर नई चिंताओं को जन्म भी दिया है, लेकिन इन चिंताओं से निपटने के लिए समाधान खोजने के भी प्रयास किए जा रहे हैं।
यह भी पढ़े- 10 लाख डेली CBDC ट्रांजेक्शन के लक्ष्य में पिछड़ा RBI