তথ্য প্রযুক্তিলিড নিউজ

‘কিলার রোবট’ নিয়ে জাতিসংঘের হস্তক্ষেপ চাইলেন সংশ্লিষ্ট বিশেষজ্ঞরা

এবিএনএ : ‘কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ এমন খবর অনেকেই শুনেছেন। সম্প্রতি কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন। তিনি তখন বলেছিলেন, কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’। কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ। তার সম্মিলিতভাবে কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।
মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা। তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে  ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে। তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।
কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।

‘কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ এমন খবর অনেকেই শুনেছেন। সম্প্রতি কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন। তিনি তখন বলেছিলেন, কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’। কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ। তার সম্মিলিতভাবে কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।
মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা। তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে  ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে। তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।
কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।

Share this content:

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button