
তথ্যপ্রযুক্তি ডেস্ক : প্রতিবেদন মতে, বিবিসিকে দেয়া এক বিশেষ সাক্ষাৎকারে তিনি বলেন, বর্তমানের এআই মডেলগুলো ভুল করার প্রবণতা রাখে এবং তাই এটিকে অন্যান্য টুলের পাশাপাশি ব্যবহার করা উচিত।
সুন্দর পিচাই বলেন, ফলে কেবল এআই-এর ওপর নির্ভরশীলতা নয়, প্রয়োজন একটি সমৃদ্ধ তথ্য ব্যবস্থা (ইনফরমেশন ইকোসিস্টেম)। তিনি বলেন, ‘এ কারণেই মানুষ গুগল সার্চ ব্যবহার করে। আমাদের আরও কিছু পণ্য আছে যা নির্ভুল তথ্য দেয়ার ক্ষেত্রে বেশি নির্ভরযোগ্য।’
তবে কিছু বিশেষজ্ঞ বলছেন, গুগলের মতো বৃহৎ প্রযুক্তি সংস্থাগুলোর উচিত তাদের সরঞ্জামগুলোর আউটপুট সম্পর্কে তথ্য যাচাই করার জন্য ব্যবহারকারীদের আমন্ত্রণ জানানো নয়, বরং তাদের সিস্টেমগুলোকে আরও নির্ভরযোগ্য করে তোলার দিকে মনোনিবেশ করা উচিত।
সুন্দর পিচাই বলেন, সৃজনশীল লেখালেখির মতো কাজে এআই টুল খুবই সহায়ক হলেও মানুষকে শিখতে হবে কোন কাজে এগুলো ভালো এবং কোন ক্ষেত্রে অন্ধভাবে বিশ্বাস না করাই ভালো। তিনি বিবিসিকে বলেন, যতটা সম্ভব নির্ভুল তথ্য দিতে আমরা অসংখ্য কাজ করি, কিন্তু বর্তমান অত্যাধুনিক এআই প্রযুক্তিও এখনও ভুল করে।
গুগল তার এআই টুলগুলোতে ডিসক্লেইমার প্রদর্শন করে যাতে ব্যবহারকারীরা বুঝতে পারেন যে তারা ভুল করতে পারেন। কিন্তু এটি তাদের নিজস্ব পণ্যের ত্রুটি নিয়ে সমালোচনা এবং উদ্বেগ থেকে তাদের রক্ষা করতে পারেনি।
গুগলের সার্চ ফলাফল সংক্ষেপ করতে এআই ওভারভিউ চালু করার পর কিছু ভুল জবাবের জন্য সমালোচনা ও উপহাস হয়েছে। চ্যাটবটের মতো জেনারেটিভ এআই পণ্যগুলোর বিভ্রান্তিকর বা মিথ্যা তথ্য প্রচারের প্রবণতা বিশেষজ্ঞদের মধ্যে উদ্বেগের কারণ হয়েছে।
লন্ডনের কুইন মেরি বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তার অধ্যাপক জিনা নেফ বিবিসি রেডিও ৪-এর টুডে প্রোগ্রামে বলেন, ‘আমরা জানি এই সিস্টেমগুলো উত্তর তৈরি করে, এবং তারা আমাদের খুশি করার জন্য উত্তর তৈরি করে। এটা একটা সমস্যা।’
তিনি বলেন, ‘আমি যদি জিজ্ঞাসা করি ‘এরপর আমার কোন সিনেমা দেখা উচিত’ তাহলে ঠিক আছে। কিন্তু যদি আমি আমার স্বাস্থ্য, মানসিক সুস্থতা, বিজ্ঞান, সংবাদ সম্পর্কে সত্যিই সংবেদনশীল প্রশ্ন জিজ্ঞাসা করি তবে তা সম্পূর্ণ আলাদা।
গ্রাহকদের ওপর তা চাপিয়ে দেয়ার পরিবর্তে এই অধ্যাপক গুগলকে তার কৃত্রিম বুদ্ধিমত্তা বিষয়ক পণ্য এবং তাদের নির্ভুলতার ওপর আরও বেশি দায়িত্ব নেয়ার আহ্বান জানান।
আয়শা/১৮ নভেম্বর ২০২৫,/সন্ধ্যা ৬:০৪






