আর্টিফিশিয়াল ইন্টেলিজেন্স নিয়ে যে অধ্যাপকের ভবিষ্যদ্বাণী এখন বাস্তব

আর্টিফিশিয়াল ইন্টেলিজেন্স নিয়ে যে অধ্যাপকের ভবিষ্যদ্বাণী এখন বাস্তব

আর্টিফিশিয়াল ইন্টেলিজেন্স নিয়ে যে অধ্যাপকের ভবিষ্যদ্বাণী এখন বাস্তব

‘কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্সের জগতে কিছু অবিশ্বাস্য ঘটনা ঘটছে, এবং তার সবটাই সুখবর নয়,’ আজ থেকে ছ’মাস আগে এই কথাগুলো লিখেছিলেন এআই বিতর্কের অন্যতম কণ্ঠস্বর গ্যারি মার্কাস।

তার মতামত অনুযায়ী, চ্যাটজিপিটি চালু হওয়ার ঘটনাকে কম্পিউটার মেশিনের ‘জুরাসিক পার্ক মুহূর্ত’ বলে বর্ণনা করা যায়। তিনি বলছেন হলিউডের পরিচালক স্টিভেন স্পিলবার্গের ঐ ছায়াছবির ঘটনার মতোই পরিস্থিতি সম্পূর্ণভাবে মানুষের নিয়ন্ত্রণের বাইরে চলে যাবে। খবর বিবিসির।

‘যখন আমি ঐ নিবন্ধটি লিখেছিলাম, লোকে মনে হয় ভেবেছিল আমি হয় পাগল, নয়তো শুধু শুধু আতঙ্ক ছড়াচ্ছি,’ এক সাক্ষাৎকারে বলছিলেন গ্যারি মার্কাস।

কিন্তু ২০২৩ সালে আর্টিফিশিয়াল ইন্টেলিজেন্স বা এআই-এর গুরুতর সমস্যাগুলি প্রসারিত হতে শুরু করে: বেলজিয়ামের এক ব্যক্তি, যিনি নিয়মিত এলিজা নামের একটি এআই চ্যাটবটের সাথে নিয়মিত কথাবার্তা চালাতেন, গত মার্চ মাসে তিনি আত্মহত্যা করেন।

চ্যাটবটের হাতে খুন

লোকটির স্ত্রী জোর দিয়ে বলছেন, ঐ এআই প্রোগ্রামের সাথে তার স্বামীর যোগাযোগই তাকে নিজের জীবন শেষ করতে বাধ্য করেছে। বেলজিয়াম সরকার মনে করছে, ঘটনাটি ‘এমন একটি নজির যাকে অবশ্যই গুরুত্ব দিয়ে দেখা উচিত এবং আর্টিফিশিয়াল ইন্টেলিজেন্স ব্যবহারের বিপদ এমন একটি বাস্তবতা যা অবশ্যই বিবেচনা করা প্রয়োজন।

চার মাস আগে প্রযুক্তি-বিষয়ক ওয়্যারড ম্যাগাজিনের নিবন্ধে মার্কাস যে সম্ভাব্য পরিস্থিতি তুলে ধরেছিলেন, তা ছিল- ‘সম্ভবত একটি চ্যাটবট কাউকে এমন কঠিনভাবে আঘাত করবে যে ঐ ব্যক্তি নিজের জীবন শেষ করে দিতে চাইবে … ২০২৩ সালে আমরা হয়তো প্রথমবারের মতো কোন চ্যাটবটের হাতে হত্যার ঘটনাও দেখতে পারি।’

‘আমার মনে হয় এআই সিস্টেমগুলি খুব ধ্বংসাত্মক হতে পারে। এবং এই ধ্বংসাত্মক সম্ভাবনার একটা কারণ হলো যে তারা নির্ভরযোগ্য নয়। এই প্রোগ্রামগুলি কিছু একটা তৈরি করতে পারে এবং ব্যবহারকারীকে বলতে পারে যে সেটাই আসলে সত্যি। এবং এই উদ্দেশ্যে মানুষ সেগুলোর অপব্যবহারও করতে পারে,’ বলছিলেন মার্কাস।

‘এখন যেসব এআই সিস্টেম রয়েছে সেগুলোর নিয়ন্ত্রণ খুব একটা ভাল নয়। তবে পরিস্থিতি এখনও তেমনটা ভয়ঙ্কর না। তবে ইউজাররা আরও বেশি করে এসব চ্যাটবটের ক্ষমতা বাড়িয়ে দিচ্ছে। এবং আমরা এখনও জানি না যে এই সিস্টেমগুলি কী পরিস্থিতি তৈরি করতে পারে।’

সাতটি কালো ভবিষ্যৎবাণী

গত বছর মি. মার্কাস চ্যাটজিপিটি-এর মতো সিস্টেমগুলি সম্পর্কে “সাতটি ভয়ানক ভবিষ্যৎবাণী” সংকলন করেছিলেন, যার মধ্যে রয়েছে প্রোগ্রামটির নতুন সংস্করণ যেটি হবে ‘কাঁচের দোকানে ষাঁড় ঢুকে পড়ার মতো ধ্বংসাত্মক, বেপরোয়া এবং নিয়ন্ত্রণহীন।’

‘প্রোগ্রামটি কিছু ভয়ঙ্কর ভুল করবে, এবং করবে এমনভাবে যা সম্পর্কে ভবিষ্যদ্বাণী করা কঠিন।’

গত মার্চের শেষের দিকে একটি অদ্ভুত ঘটনা মিডিয়ার নজরে এসেছিল। এক ব্যক্তি চ্যাটজিপিটির কাছে জানতে চেয়েছিল যৌন হয়রানির সাথে জড়িত কিছু শিক্ষকের নাম।

জবাবে চ্যাটজিপিটি যে তালিকা দিয়েছিল তাতে আমেরিকার একজন আইনের অধ্যাপক জোনাথন টার্লির নাম উল্লেখ করা হয়েছিল। এআই প্রোগ্রামটি উল্লেখ করেছিল, অধ্যাপক টার্লি অ্যালাস্কা ভ্রমণের সময় একজন ছাত্রীর প্রতি যৌন ইঙ্গিতমূলক মন্তব্য করেছিলেন এবং তাকে স্পর্শ করার চেষ্টা করেছিলেন। চ্যাটজিপিটি প্রমাণ হিসেবে ২০১৮ সালে ওয়াশিংটন পোস্টের একটি প্রতিবেদনকে উদ্ধৃত করেছিল।

কিন্তু বাস্তব সত্য হলো এসব ঘটনার কিছুই ঘটেনি: অ্যালাস্কায় কোন সফর হয়নি, ওয়াশিংটন পোস্টে এনিয়ে কোন রিপোর্ট ছাপা হয়নি, এমনকি যৌন হয়রানির কোন অভিযোগও ওঠেনি। পুরো ব্যাপারটা ঐ এআই রোবট নিজে থেকে বানিয়ে দিয়েছে।

অসত্য তৈরির কারখানা

এই ঘটনায় চ্যাটজিপিটির মালিক প্রতিষ্ঠান ওপেনএআই এক বিবৃতি দিয়ে বলেছে, তাদের প্রোগ্রামটি ‘সবসময় সঠিক জবাব তৈরি করতে পারে না।’

মার্কাস মনে করছেন, এই প্রোগ্রামগুলি যে সঠিকভাবে কাজ করবে, এমনকি সঠিকভাবে গাণিতিক গণনা করবে, এমন কোন গ্যারান্টি এখনও আমাদের কাছে নেই।

‘কখনও কখনও তাদের জবাব সঠিক হয়, আবার কখনও কখনও হয় না। এক্ষেত্রে আমি নিয়ন্ত্রণ এবং নির্ভরযোগ্যতার অভাব দেখতে পাই।’

‘আপনার হাতের সাধারণ ক্যালকুলেটর যে গাণিতিক উত্তর দেয় সেটা নিশ্চিত। কিন্তু বড় কম্পিউটার ভাষার মডেলগুলি তা করতে পারে না।’

এর মাধ্যমে চ্যাটজিপিটির পেছনে সক্রিয় এলএলএম (লার্জ ল্যাংগুয়েজ মডেল) সিস্টেমকে বোঝানো হয়, যা বিপুল পরিমাণ ডেটা সঞ্চয় করে এবং শক্তিশালী অ্যালগরিদমের মাধ্যমে মানুষ ইতিমধ্যে যা বলেছে তার ওপর ভিত্তি করে একটা আনুমানিক জবাব তৈরি করে।

অল্প কথায়, এটি একটি অত্যাধুনিক তোতাপাখি যার নিজের কোন ধারণা নেই যে এটি ঠিক কী নিয়ে কথা বলছে এবং কখনও কখনও এটা ‘হ্যালুসিনেট’ করে। এটি এআই প্রযুক্তির একটি শব্দ যার অর্থ, প্রোগ্রামারদের প্রত্যাশার বাইরে কোন জবাব তৈরি করা।

‘এলএলএমগুলি আসলে এতটা স্মার্ট নয়, তবে তারা খুব বিপজ্জনক,’ বলছেন গ্যারি মার্কাস, যিনি তার “অন্ধকার ভবিষ্যদ্বাণীগুলির” তালিকায় হ্যালুসিনেটরি এআই মুহূর্তের উত্থানকেও অন্তর্ভুক্ত করেছেন।

এআই মডেলে টেক্সট জেনারেটর ছাড়াও ইদানীং ইমেজ ম্যানিপুলেট করে এমন প্রোগ্রামগুলিও দ্রুত বৃদ্ধি পাচ্ছে।

সম্প্রতি মিডজার্নি নামে একটি এআই প্রোগ্রামের তৈরি একটি ছবি, যেখানে দেখানো হয়েছে পোপ ফ্রান্সিস একটি রূপালী রঙের জ্যাকেট পরে আছেন, কয়েক ঘণ্টার জন্য ইন্টারনেট ব্যবহারকারীদের বেশ বিভ্রান্ত করে রেখেছিল। তারা জানতে চেয়েছিলেন: ঐ ছবিটি কি আসল?

ঐ ঘটনার পরিণতি ক্ষতিকারক ছিল না, তবে এর মধ্যে দিয়ে কোনটি সত্য আর কোনটি নকল, এর মধ্যবর্তী একটি ধূসর অঞ্চলে প্রবেশের সম্ভাবনা তৈরি হয়েছে।

নিউইয়র্ক ইউনিভার্সিটির এই অধ্যাপক বলছেন, আমরা যদি এখনই পদক্ষেপ না নিই, তাহলে আমরা একটি ‘পোস্ট-ট্রুথ’ পরিবেশের কাছাকাছি পৌঁছে যাব, যেখানে মিথ্যা সত্যকে অতিক্রম করে যাবে।

‘এটি গণতন্ত্রের জন্য সবকিছুকে খুব কঠিন করে তুলেছে। যারা ব্যাপক-মাত্রায় বিভ্রান্তি তৈরি করছে তাদের ঠেকানোর জন্য এখন আমাদের প্রয়োজন নিষেধাজ্ঞার, তথ্য কোথা থেকে আসছে তা শনাক্ত করার জন্য প্রয়োজন ডিজিটাল জলছাপ এবং মিথ্যা তথ্য শনাক্ত করার জন্য প্রয়োজন নতুন প্রযুক্তি। ঠিক যেমনভাবে অ্যান্টি-ভাইরাস প্রোগ্রাম তৈরি হয়েছে, তেমনভাবেই এখন আমাদের প্রয়োজন ‘অ্যান্টি-ডিসইনফরমেশন’ সফটওয়্যার তৈরি করা।’

‘পুঁজিবাদ সমস্যার সমাধান বের করবে না’

কিন্তু ৫৩-বছর বয়সী গ্যারি মার্কাসের কাজ শুধু শিক্ষাক্ষেত্রেই সীমাবদ্ধ নয়। উবারের কাছে তিনি নিজের একটি কোম্পানি বিক্রি করেছেন এবং এই পরিবহন অ্যাপ জায়ান্টের আর্টিফিশিয়াল ইন্টেলিজেন্স বিভাগের একটি পরীক্ষাগারে তিনি পরিচালকের কাজও করেছেন। উবারের বিরুদ্ধে যখন পরিবেশ ‘বিষিয়ে’ তোলার অভিযোগ ওঠে তখন মাত্র চার মাস পর তিনি পদত্যাগ করেন।

তাকে যখন জিজ্ঞেস করা হয় যে সিলিকন ভ্যালি বিখ্যাত মন্ত্র: ‘দ্রুত এগিয়ে চলুন এবং ভেঙে নতুন জিনিস গড়ুন” এবং বাজারে ব্যাপক প্রতিযোগিতা আর্টিফিশিয়াল ইন্টেলিজেন্সের বিকাশের জন্য বিপজ্জনক পরিস্থিতি তৈরি করছে কিনা? জবাবে তিনি বলেছিলেন, “আপনি আশা করতে পারেন না যে পুঁজিবাদ নিজে থেকেই এসব সমস্যার সমাধান করবে।”

তিনি এসব কোম্পানিকে নিয়ন্ত্রণের পক্ষে কথা বলেন এবং এক্ষেত্রে বিমান চলাচল খাতকে একটি উদাহরণ হিসাবে উল্লেখ করে বলেন যে এই নিয়ন্ত্রণের প্রয়োজন রয়েছে।

‘১৯৫০-এর দশকে এয়ারলাইন্স ইন্ডাস্ট্রি ছিল একটি জগাখিচুড়ি ব্যাপার। একের পর এক বিমান দুর্ঘটনা ঘটছিল। ফলে যে নতুন নিয়মকানুন তৈরি হয় তাতে এয়ারলাইন্স ইন্ডাস্ট্রির ভালো হয়েছে। শেষ পর্যন্ত এসব নীতিমালা এয়ারলাইন্স ইন্ডাস্ট্রিকে আরও ভালো পণ্য তৈরি করতে সহায়তা করেছে,’ বলছেন তিনি।

“কর্পোরেশনগুলোর হাতে সবকিছু ছেড়ে দিলেই সেটা সঠিক পথে নিয়ে যাবে, তা বলা যাবে না … আর এ জন্যইতো সরকার গঠন করতে হয়। ঠিক কিনা?”

‘এআইয়ের গডফাদার’-এর সাথে আপস

গ্যারি মার্কাসের সতর্কবাণী এবং দ্রুত বিকাশমান এআই সম্পর্কে তার অবিশ্বাস যে সবসময়ই লোকে ভালভাবে গ্রহণ করেছে তা বলা যাবে না।

আগে এআই নিয়ে তার সংশয়কে তার সহকর্মীরা উপহাস করতেন। কিন্তু এখন পরিস্থিতি বদলে গেছে: এআই খাতের বিভিন্ন ব্যক্তিত্ব এখন সুর পাল্টাতে শুরু করেছেন।

জেফরি হিন্টনকে বলা হয় ‘এআই-এর গডফাদার।” গুগল থেকে তিনি সরে যাওয়ার কথা ঘোষণা করেছেন, এবং তার কিছু পরেই বলেছেন যে আর্টিফিশিয়াল ইন্টেলিজেন্সের সমস্যাগুলিকে তিনি “সম্ভবত জলবায়ু পরিবর্তনের চেয়েও বেশি জরুরি” হিসেবে দেখেন।

“আর্টিফিশিয়াল ইন্টেলিজেন্সের কিছু দিক নিয়ে হিন্টন এবং আমার মতামত ভিন্ন। আমি কিছুদিন এসব নিয়ে তার সাথে চিঠিপত্রও চালাচালি করেছিলাম, তাকে আমার অবস্থান ব্যাখ্যা করেছিলাম। এবং তিনি আমার সাথে একমত হয়েছিলেন, যেটা সবসময় ঘটে না। তবে যে মূল বিষয়টি নিয়ে আমরা একমত হই তা হলো, এআই-কে নিয়ন্ত্রণের,” জানালেন তিনি।

“[এআই] জলবায়ু পরিবর্তনের চেয়েও বড় হুমকি, আমি হয়তো একথার সাথে একমত নই। তবে এটি বোঝা কঠিন। জলবায়ু পরিবর্তনের ঝুঁকি অনুমান করতে প্রচুর ডেটা হাতে রয়েছে। কিন্তু আর্টিফিশিয়াল ইন্টেলিজেন্সের ঝুঁকিগুলি কীভাবে হিসেব করতে হবে আমাদের সে সম্পর্কেই কোন ধারণা নেই।”

“কিন্তু আমি বলবো, গণতন্ত্রকে দুর্বল করার কাজে এআইয়ের অপব্যবহারের সম্ভাবনা শতকরা ১০০ ভাগ। আমরা এখনও জানি না যে রোবটরা সত্যি একসময় বিশ্বকে দখল করতে পারবে কি না। কিছু লোক এমন পরিস্থিতির কথা বিবেচনা করবেন তা যুক্তিসঙ্গত। আমরা খুবই শক্তিশালী সব যন্ত্র তৈরি করছি। তাই এর হুমকিগুলির কথা আমাদের অবশ্যই বিবেচনা করতে হবে।”

এমকে

Explore More Districts