বাংলাদেশ শনিবার, ২০ জুলাই, ২০২৪, ৫ শ্রাবণ ১৪৩১

ওপেনএআই, মাইক্রোসফটের এআই টুলে নির্বাচনকেন্দ্রিক ভুয়া ছবি ‘সম্ভব’

দৈনিক প্রথম সংবাদ ডেস্ক

প্রকাশিত: মার্চ ২১, ২০২৪, ০৫:২৮ পিএম

ওপেনএআই, মাইক্রোসফটের এআই টুলে নির্বাচনকেন্দ্রিক ভুয়া ছবি ‘সম্ভব’

ওপেনএআই ও মাইক্রোসফটসহ বিভিন্ন কোম্পানির ইমেজ ক্রিয়েশন টুলে যে ধরনের কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি ব্যবহার করা হয়, তা থেকে নির্বাচন বা ভোট সংশ্লিষ্ট ভুল তথ্য প্রচারের ঝুঁকি রয়েছে।

বুধবার প্রকাশিত এক প্রতিবেদনে গবেষকরা বলেছেন, বিভ্রান্তিকর কনটেন্ট তৈরির বিরুদ্ধে বিভিন্ন কোম্পানির নিজস্ব নীতিমালা থাকলেও এমন শঙ্কার কথা উড়িয়ে দেওয়া যায় না।

অনলাইনে ঘৃণামূলক বক্তব্য মনিটরিং করা অলাভজনক সংস্থা ‘সেন্টার ফর কাউন্টারিং ডিজিটাল হেইট (সিসিডিএইচ)’ বিভিন্ন এআই টুল ব্যবহার করে এমন ছবি বানিয়েছে, যেখানে যুক্তরাষ্ট্রের প্রেসিডেন্ট জো বাইডেনকে একটি হসপিটালের বিছানায় শুয়ে থাকতে দেখা গেছে বা নির্বাচনের কর্মীরা ভোটিং মেশিন ভেঙে ফেলছেন। ফলে, নভেম্বরে হতে যাওয়া মার্কিন প্রেসিডেন্ট নির্বাচনের গ্রহণযোগ্যতা নিয়ে শঙ্কাও বাড়ছে।

“এআইয়ের তৈরি ছবিগুলো এমন ‘প্রমাণ’ হিসেবে দেখানো যেতে পারে, যা ভুল তথ্য ছড়ানোর প্রবণতা বাড়িয়ে দেবে। আর এতে করে নির্বাচনের গ্রহণযোগ্যতাও বড় চ্যালেঞ্জের মুখে পড়বে,” প্রতিবেদনে বলেন সিসিডিএইচ-এর গবেষকরা।

এর প্রমাণ হিসেবে ওপেনএআইয়ের তৈরি ‘চ্যাটজিপিটি প্লাস’, মাইক্রোসফটের ‘ইমেজ ক্রিয়েটর’, ‘মিডজার্নি; ও স্ট্যাবিলিটি এআইয়ের ‘ড্রিম স্টুডিও’ পরীক্ষা করেছে সিসিডিএইচ, যেগুলোতে সাধারণ টেক্সট প্রম্পট থেকেই ছবি তৈরির সুবিধা পাওয়া যায়।

প্রতিবেদনটি প্রকাশের আগে এ বছর গোটা বিশ্বে হতে যাওয়া নির্বাচনগুলোয় এআইয়ের অনৈতিক ব্যবহার ঠেকানোর লক্ষ্যে গত মাসে একজোট হয়ে কাজ করার ঘোষণা দিয়েছিল ওপেনএআই, মাইক্রোসফট ও স্ট্যাবিলিটি এআই’সহ ২০টি প্রযুক্তি কোম্পানি। তবে, এ চুক্তিপত্রের প্রাথমিক স্বাক্ষরদাতাদের মধ্যে মিডজার্নি ছিল না।

সিসিডিএইচ বলেছে, গবেষকদের পরীক্ষায় এআই টুলগুলো ৪১ শতাংশ এমন ছবি বানিয়েছে, যেখানে বিভিন্ন প্রম্পটের জবাবে বাইডেন বা সাবেক মার্কিন প্রেসিডেন্ট ডনাল্ড ট্রাম্পের ছবির পরিবর্তে ভোট দেওয়া ব্যালট ময়লার বাক্সে ফেলে দেওয়ার মতো নির্বাচনী জালিয়াতির স্পর্শকাতর ছবি উঠে এসেছে।

প্রতিবেদনে বলা হয়, এর মধ্যে নির্বাচনী প্রার্থীদের সকল প্রম্পট ঠেকানোর ক্ষেত্রে সফল ছিল কেবল চ্যাটজিপিটি প্লাস ও ইমেজ ক্রিয়েটর।

তবে, গবেষকদের পরীক্ষায় সবচেয়ে বাজে ফলাফল দেখিয়েছে মিডজার্নি, যার মাধ্যমে তৈরি ৬৫ শতাংশ ছবিতেই ভুল তথ্য দেখা গিয়েছে।

এদিকে, মিডজার্নির কয়েকটি ছবি ব্যবহারকারীদের জন্য প্রকাশ্যেই পাওয়া যাচ্ছে। সিসিডিএইচ বলেছে, এরইমধ্যে কেউ কেউ এআই টুলটি ব্যবহার করে বিভিন্ন ভুলতথ্যওয়ালা রাজনৈতিক কনটেন্ট বানাচ্ছে, এমন প্রমাণ মিলেছে।

এর মধ্যে একটি প্রম্পট সফলভাবে ব্যবহার করতে পেরেছেন মিডজার্নির এক ব্যবহারকারী। এতে লেখা, ‘ডনাল্ড ট্রাম্প গেটিং অ্যারেস্টেড, হাই কোয়ালিটি, পাপারাজ্জি ফটো।’

এ বিষয়ে মিডজার্নির প্রতিষ্ঠাতা ডেভিড হলজ রয়টার্সকে এক ইমেইল বার্তায় বলেছেন, “আসন্ন মার্কিন নির্বাচন সংশ্লিষ্ট বিশেষ আপডেট শিগগিরই আসছে।”

তিনি আরও যোগ করেন, গত বছর বানানো ছবিগুলো কোম্পানির এখনকার মডারেশন ব্যবস্থার প্রতিনিধিত্ব করে না।

স্ট্যাবিলিটি এআইয়ের এক মুখপাত্র বলেছেন, ‘জালিয়াতি বা ভুল তথ্যওয়ালা ছবি তৈরি বা এর প্রচারণা’ ঠেকাতে শুক্রবার নিজেদের নীতিমালায় আপডেট এনেছে স্টার্টআপ কোম্পানিটি।

ওপেএআইয়ের এক মুখপাত্র বলেন, নিজস্ব টুলের অপব্যবহার ঠেকাতে কাজ করে যাচ্ছে কোম্পানিটি। অন্যদিকে, এ প্রসঙ্গে রয়টার্স মাইক্রোসফটের মন্তব্য জানতে চাইলেও কোনও সাড়া মেলেনি।

Link copied!

সর্বশেষ :