কপিরাইট © ২০২৪ TalkBarta দ্বারা সর্বস্বত্ব সংরক্ষিত


কৃত্রিম বুদ্ধিমত্তার ভবিষ্যৎ নিয়ে নতুন নীতিমালা গ্রহণ করেছে মেটা। অত্যন্ত ঝুঁকিপূর্ণ এআই প্রযুক্তি সাধারণ মানুষের জন্য উন্মুক্ত না করার সিদ্ধান্ত নিতে পারে তারা! সম্প্রতি প্রকাশিত "ফ্রন্টিয়ার এআই ফ্রেমওয়ার্ক" নীতিমালায়, কিছু এআই ব্যবস্থাকে "উচ্চ ঝুঁকিপূর্ণ" এবং "গুরুতর ঝুঁকিপূর্ণ" হিসেবে চিহ্নিত করা হয়েছে। 🧠⚠️
✅ উচ্চ ঝুঁকিপূর্ণ এআই: এটি সাইবার নিরাপত্তা লঙ্ঘন, রাসায়নিক বা জৈবিক আক্রমণকে সহজতর করতে পারে, তবে এটি সর্বদা নির্ভরযোগ্যভাবে কার্যকর হবে না।
🚨 গুরুতর ঝুঁকিপূর্ণ এআই: এটি এমন প্রযুক্তি, যা "অপরিবর্তনীয় বিপর্যয়" ডেকে আনতে পারে!
মেটা জানিয়েছে, কোনো এআই প্রযুক্তি কতটা ঝুঁকিপূর্ণ তা নির্ধারণ করতে বৈজ্ঞানিক পরীক্ষার ওপর নির্ভর না করে, বরং অভ্যন্তরীণ ও বহিরাগত গবেষকদের মতামত বিবেচনায় নেওয়া হবে।
👉 যদি কোনো প্রযুক্তি উচ্চ ঝুঁকিপূর্ণ হয়, তবে সেটির উন্নয়ন সীমিত পরিসরে চলবে এবং ঝুঁকি কমানো পর্যন্ত প্রকাশ করা হবে না।
❌ যদি প্রযুক্তিটি গুরুতর ঝুঁকিপূর্ণ হয়, তবে তার ডেভেলপমেন্টই বন্ধ করে দেওয়া হবে!
মেটার এই সিদ্ধান্তকে তাদের উন্মুক্ত এআই নীতির সমালোচনার জবাব হিসেবে দেখা হচ্ছে। আগে তারা ওপেনএআই ও চীনা প্রতিষ্ঠান ডিপসিকের তুলনায় তুলনামূলকভাবে বেশি উন্মুক্ত দৃষ্টিভঙ্গি নিয়েছিল। তবে নতুন নীতিমালায় স্পষ্ট, তারা এআই নিরাপত্তাকে সর্বোচ্চ গুরুত্ব দিতে চাইছে!
💬 আপনার মতে, উচ্চ ঝুঁকিপূর্ণ এআই প্রযুক্তি কি উন্মুক্ত হওয়া উচিত? মতামত জানান!