
কৃত্রিম বুদ্ধিমত্তার ভবিষ্যৎ নিয়ে নতুন নীতিমালা গ্রহণ করেছে মেটা। অত্যন্ত ঝুঁকিপূর্ণ এআই প্রযুক্তি সাধারণ মানুষের জন্য উন্মুক্ত না করার সিদ্ধান্ত নিতে পারে তারা! সম্প্রতি প্রকাশিত “ফ্রন্টিয়ার এআই ফ্রেমওয়ার্ক” নীতিমালায়, কিছু এআই ব্যবস্থাকে “উচ্চ ঝুঁকিপূর্ণ” এবং “গুরুতর ঝুঁকিপূর্ণ” হিসেবে চিহ্নিত করা হয়েছে। 🧠⚠️
কোন ধরনের এআই ঝুঁকিপূর্ণ?
✅ উচ্চ ঝুঁকিপূর্ণ এআই: এটি সাইবার নিরাপত্তা লঙ্ঘন, রাসায়নিক বা জৈবিক আক্রমণকে সহজতর করতে পারে, তবে এটি সর্বদা নির্ভরযোগ্যভাবে কার্যকর হবে না।
🚨 গুরুতর ঝুঁকিপূর্ণ এআই: এটি এমন প্রযুক্তি, যা “অপরিবর্তনীয় বিপর্যয়” ডেকে আনতে পারে!
এআই ঝুঁকি নির্ধারণের মাপকাঠি কী?
মেটা জানিয়েছে, কোনো এআই প্রযুক্তি কতটা ঝুঁকিপূর্ণ তা নির্ধারণ করতে বৈজ্ঞানিক পরীক্ষার ওপর নির্ভর না করে, বরং অভ্যন্তরীণ ও বহিরাগত গবেষকদের মতামত বিবেচনায় নেওয়া হবে।
👉 যদি কোনো প্রযুক্তি উচ্চ ঝুঁকিপূর্ণ হয়, তবে সেটির উন্নয়ন সীমিত পরিসরে চলবে এবং ঝুঁকি কমানো পর্যন্ত প্রকাশ করা হবে না।
❌ যদি প্রযুক্তিটি গুরুতর ঝুঁকিপূর্ণ হয়, তবে তার ডেভেলপমেন্টই বন্ধ করে দেওয়া হবে!
মেটার পদক্ষেপের কারণ কী?
মেটার এই সিদ্ধান্তকে তাদের উন্মুক্ত এআই নীতির সমালোচনার জবাব হিসেবে দেখা হচ্ছে। আগে তারা ওপেনএআই ও চীনা প্রতিষ্ঠান ডিপসিকের তুলনায় তুলনামূলকভাবে বেশি উন্মুক্ত দৃষ্টিভঙ্গি নিয়েছিল। তবে নতুন নীতিমালায় স্পষ্ট, তারা এআই নিরাপত্তাকে সর্বোচ্চ গুরুত্ব দিতে চাইছে!
💬 আপনার মতে, উচ্চ ঝুঁকিপূর্ণ এআই প্রযুক্তি কি উন্মুক্ত হওয়া উচিত? মতামত জানান!