প্রিন্ট এর তারিখঃ জুন ২০, ২০২৫, ১১:৩১ পি.এম || প্রকাশের তারিখঃ অগাস্ট ২৩, ২০১৭, ৭:৫৮ পি.এম
‘কিলার রোবট’ নিয়ে জাতিসংঘের হস্তক্ষেপ চাইলেন সংশ্লিষ্ট বিশেষজ্ঞরা

এবিএনএ : ‘কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ এমন খবর অনেকেই শুনেছেন। সম্প্রতি কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন। তিনি তখন বলেছিলেন, কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’। কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ। তার সম্মিলিতভাবে কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।
মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা। তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে। তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।
কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।
‘কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ এমন খবর অনেকেই শুনেছেন। সম্প্রতি কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন। তিনি তখন বলেছিলেন, কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’। কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ। তার সম্মিলিতভাবে কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।
মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা। তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে। তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।
কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।
Chairman & Editor-in-Chief : Shaikh Saokat Ali,Managing Editor : Khondoker Niaz Ikbal,
Executive Editor : Mehedi Hasan,E-mail : abnanewsali@gmail.com
Usa Office: 2817 Fairmount, Avenue Atlantic city-08401,NJ, USA. Bangladesh Office : 15/9 Guptopara,Shemulbag,
2 nd floor,GS Tola, Teguriha, South Keraniganj, Dhaka.
Phone: +16094649559, Cell:+8801978-102344, +8801715-864295
Copyright © 2025 America Bangladesh News Agency. All rights reserved.