শেষ দশক জুড়ে গোটা পৃথিবীর বিজ্ঞানের বিকাশ এবং আমাদের ভাবনা দুটোকেই আমূল পালটে দিয়েছে AI । বিশেষত চ্যাটজিপিটি আসার পর থেকে তো সাধারণ মধ্যবিত্তের নাগালে এসেছে AIকে সরাসরি ছুঁয়ে দেখার সুযোগ । শেষ দু বছরে AI কে ব্যবহার করে উৎপাদন বেড়েছে বহুগুণ , আমাদের দৈনন্দিন ভাবনা চিন্তা জ্ঞানের পরিসীমা আর জানার পরিধিকে অনেকটাই পরিবর্ধিত করেছে AI । কিন্তু AI কি সবসময় আমাদেরকে ঠিকঠাক নিরপেক্ষ তথ্য দেয় ?
এটা নিয়ে বহুবার বিতর্ক তৈরি হয়েছে , দেখা গিয়েছে AI যে তথ্য দিচ্ছে তা নিরপেক্ষ নয় বরং কোনো এক বিশেষ রাজনৈতিক দল বা সংগঠনের ভাবনার সাথে মিলে যাচ্ছে তার ভাষ্য । AI যদি এবাবে উদ্দেশ্যপ্রণোদিত ভাবে পক্ষপাতদুষ্ট উত্তর দেয় তবে তা বিপদজনক ।
এ প্রসঙ্গে এলন মাস্ক সম্প্রতি বলেছেন , ” সত্য বলতে হবে AI-কে, সত্যটা জানতে হবে , তা সে সত্য আমাদের যত অপ্রিয়ই হোক না কেন । ” এটা শুধুই একটা মন্তব্য নয় । এ আই এর মূল নীতি এটাই হওয়া উচিৎ – সেই নীতির উপর ভিত্তি করেই হবে AI-এর নির্মাণ এবং ব্যবহারের নৈতিক মানদণ্ড ।
সহজ চ্যাটবট থেকে জটিল মেশিন লার্নিং মডেল, AI পদ্ধতি আমাদের দৈনন্দিন জীবনে ব্যাপকভাবে প্রভাব বিস্তার করেছে । কেনাকাটার পরামর্শ থেকে শুরু করে চিকিৎসা বিষয়ক রোগ নির্ণয় বা আর্থিক উপদেশ – সবকিছুতেই AI । এই সব ব্যবস্থা আমাদের মতামত গড়ে তোলে, অভ্যাস তৈরি করে এমনকি জীবনদর্শনও বদলে দিতে পারে। তাই এই প্রযুক্তির তথ্যের নির্ভরযোগ্যতা ও সঠিক অ্যালগরিদমের অত্যন্ত গুরুত্বপূর্ণ। কিন্তু আমরা কীভাবে নিশ্চিত করব যে AI কোনো উদ্দেশ্যপ্রণোদিত তথ্য দিচ্ছে না , সত্য তথ্যই দিচ্ছে ?
এখানে চ্যালেঞ্জটা AI-এর তৈরি ও প্রশিক্ষণের পর্যায়ে। একটা AI মডেল ঠিক ততটাই ভালো হবে, যতটা ভালো তার প্রক্রিয়াকরণের তথ্য। পক্ষপাতদুষ্ট তথ্যের ফলে ভ্রান্ত ধারণা আর সিদ্ধান্ত তৈরি হতে পারে। তাই AI নির্মাণ প্রকৌশলীদের অবশ্যই সত্য ও নিরপেক্ষতার ছাঁকনি দিয়ে তথ্য যাচাই করে নিতে হবে। উপরন্তু, কোন তথ্যকে AI মডেল কীভাবে প্রক্রিয়াকরণ ও ব্যাখ্যা করছে, সেই ব্যাপারে স্বচ্ছতা থাকা অত্যাবশ্যক ।
সত্যের জনপ্রিয়তা নেই – মাস্কের এই কথাটায় জোর দেওয়ার মধ্যে আরেকটা দিক উঠে আসে- নৈতিক দায়বদ্ধতা। যে যুগে ভুল তথ্য দাবানলের মতো ছড়িয়ে লাগাতে পারে দাঙ্গা এমনকি যুদ্ধও । সেখানে AI এই সমস্যা কমাতেও পারে, আবার বাড়িয়েও দিতে পারে। ব্যবহারকারীরা যা শুনতে চায় তাই বলা বা নৈতিক আদর্শের কথা না ভেবে পক্ষপাতদুষ্ট তথ্য দেওয়া – এমনভাবে AI তৈরী করা অনেক সহজ, বাণিজ্যিক লাভও বেশি। এখানেই AI-এর নৈতিক মূল্যবোধের প্রশ্ন ওঠে।
"AI needs to say the truth and know the truth, even if the truth is unpopular”
— Tesla Owners Silicon Valley (@teslaownersSV) April 18, 2024
Elon Musk
pic.twitter.com/NCjjtIsPsH
যেমন ধরুন, AI দ্বারা চালিত একটি স্বাস্থ্য পরামর্শদাতা , যার উচিত হবে চিকিৎসা তথ্য আর সর্বাধিক প্রচলিত ও বৈজ্ঞানিকভাবে স্বীকৃত পদ্ধতির উপর ভিত্তি করেই পরামর্শ দেওয়া এবং জনপ্রিয় অথচ বৈজ্ঞানিক ভিত্তি নেই এমন স্বাস্থ্য-চর্চার ধারাকে প্রশ্রয় না দেওয়া। একইভাবে AI-চালিত একজন আর্থিক উপদেষ্টার উচিত হবে সুদৃঢ় অর্থনৈতিক নীতির উপর ভিত্তি করে পরামর্শ দেওয়া যদিও ব্যবহারকারী হয়তো ঝটপট লাভের উচ্চ-ঝুঁকিপূর্ণ পথ বেছে নিতে চাইতেও পারেন।
আস্থা বা বিশ্বাস হল যে কোনো সম্পর্কের ভিত্তি । তা মানুষে-মানুষে হোকশ কিংবা মানুষ-AI-এর। AI যদি সত্যিই কার্যকরী হয় সমাজব্যবস্থায় ওতপ্রোতভাবে মিশে যায় তাহলে ব্যবহারকারীদের বিশ্বাস করতে হবে যে AI সিস্টেমগুলো শুধু দক্ষই নয় সৎও বটে। এর অর্থ AI-এর মধ্যে ব্যাখ্যা করার ক্ষমতা থাকতে হবে – AI যেসব সিদ্ধান্ত নিচ্ছে তা সাধারণ ব্যবহারকারী যেন বুঝতে ও পর্যালোচনা করতে পারেন।
AI এর নৈতিকতা নিয়ে সম্প্রতি বেশ চর্চা শুরু হয়েছে, এ বিষয়টিতে এখনই নজর দেওয়ার সময় নইলে AI সবকিছু লন্ডভন্ড করে দিতে পারে । এমন AI সিস্টেম তৈরি করতে হবে যেগুলো সমাজের নীতি ও মূল্যবোধের দিকে নজর রেখেই কাজ করবে। এর মধ্যে থাকবে ব্যবহারকারীর গোপনীয়তা রক্ষা মানসিক চাপ সৃষ্টি না করা বৈষম্যহীন ও সুষ্ঠু সিদ্ধান্ত গ্রহণ নিশ্চিত করা।
AI যতই নিজের কাজে স্বয়ংসম্পূর্ণ হয়ে উঠছে তাকে সত্যের পথে রাখার জটিলতাও তত বাড়ছে। নির্মাণকারী প্রকৌশলী নীতি-নির্ধারক ও ব্যবহারকারী – সকলকে মিলে AI-এর নির্ভরযোগ্যতা রক্ষার কাঠামো ও নীতিমালা তৈরী করতে হবে। যাতে AI আগামীর ফ্রাঙ্কেন্সটাইন তৈরি না হয় , ইলন মাস্ক এই বিষয়টি নিয়ে মন্তব্য করে এটাই বলতে চেয়েছেন ।