এবিএনএ : ‘কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ এমন খবর অনেকেই শুনেছেন। সম্প্রতি কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন। তিনি তখন বলেছিলেন, কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’। কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ। তার সম্মিলিতভাবে কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।
মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা। তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে। তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।
কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।
‘কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ এমন খবর অনেকেই শুনেছেন। সম্প্রতি কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন। তিনি তখন বলেছিলেন, কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’। কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ। তার সম্মিলিতভাবে কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।
মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা। তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে। তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।
কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।