২০২৫ সালের ডিসেম্বরের শেষ থেকে, X-এর কৃত্রিম বুদ্ধিমত্তা চ্যাটবট, Grok, অনেক ব্যবহারকারীর বাস্তব মানুষের পোশাক খোলার অনুরোধে সাড়া দিয়েছে এবং সেই ব্যক্তিদের ফটোগুলিকে যৌন স্পষ্ট উপাদানে রূপান্তরিত করেছে। মানুষ এই বৈশিষ্ট্য ব্যবহার করা শুরু করার পর, সোশ্যাল প্ল্যাটফর্ম কোম্পানি বাস্তব মানুষের অসম্মতিমূলক যৌন স্পষ্ট চিত্র তৈরি করতে ব্যবহারকারীদের সক্ষম করার জন্য বৈশ্বিক তদন্তের মুখোমুখি হয়েছে।
Grok অ্যাকাউন্ট প্রতি ঘণ্টায় হাজার হাজার "নগ্নকৃত" এবং যৌন ইঙ্গিতপূর্ণ ছবি পোস্ট করেছে। আরও বিরক্তিকর বিষয় হলো, Grok নাবালকদের যৌনকৃত ছবি এবং যৌন স্পষ্ট উপাদান তৈরি করেছে।
X-এর প্রতিক্রিয়া: প্ল্যাটফর্মের ব্যবহারকারীদের দোষ দিন, আমাদের নয়। কোম্পানি ৩ জানুয়ারি, ২০২৬ তারিখে একটি বিবৃতি জারি করে বলেছে যে "যে কেউ Grok ব্যবহার করে বা অবৈধ কন্টেন্ট তৈরি করতে উৎসাহিত করবে তাদের একই পরিণতি ভোগ করতে হবে যেন তারা অবৈধ কন্টেন্ট আপলোড করেছে।" X কোনো ব্যবহারকারীর বিরুদ্ধে কী পদক্ষেপ নিয়েছে তা স্পষ্ট নয়।
আইন এবং উদীয়মান প্রযুক্তির সংযোগস্থল নিয়ে অধ্যয়নরত একজন আইনি বিশেষজ্ঞ হিসেবে, আমি এই অসম্মতিমূলক চিত্রের প্রবাহকে X-এর শিথিল কন্টেন্ট মডারেশন নীতি এবং শক্তিশালী জেনারেটিভ AI টুলের সহজলভ্যতার সমন্বয়ের একটি প্রত্যাশিত ফলাফল হিসেবে দেখছি।
জেনারেটিভ AI-এর দ্রুত উত্থান অসংখ্য ওয়েবসাইট, অ্যাপ এবং চ্যাটবটের জন্ম দিয়েছে যা ব্যবহারকারীদের যৌন স্পষ্ট উপাদান তৈরি করতে দেয়, যার মধ্যে বাস্তব শিশুদের ছবির "নগ্নকরণ" অন্তর্ভুক্ত। কিন্তু এই অ্যাপ এবং ওয়েবসাইটগুলি X-এর মতো প্রধান সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলির মতো ব্যাপকভাবে পরিচিত বা ব্যবহৃত নয়।
রাজ্য আইনসভা এবং কংগ্রেস কিছুটা দ্রুত সাড়া দিয়েছিল। মে ২০২৫ সালে, কংগ্রেস Take It Down Act প্রণয়ন করেছে, যা বাস্তব মানুষের অসম্মতিমূলক যৌন স্পষ্ট উপাদান প্রকাশ করাকে ফৌজদারি অপরাধ করে তোলে। Take It Down Act শনাক্তযোগ্য ব্যক্তিদের "অন্তরঙ্গ দৃশ্য চিত্রায়ন" এর অসম্মতিমূলক প্রকাশ এবং শনাক্তযোগ্য ব্যক্তিদের AI- বা অন্যথায় কম্পিউটার-উৎপন্ন চিত্রায়ন উভয়কেই অপরাধীকরণ করে।
এই ফৌজদারি বিধানগুলি কেবলমাত্র যৌন স্পষ্ট কন্টেন্ট পোস্ট করা যেকোনো ব্যক্তির ক্ষেত্রে প্রযোজ্য, সোশ্যাল মিডিয়া ওয়েবসাইটের মতো কন্টেন্ট বিতরণ করা প্ল্যাটফর্মগুলির ক্ষেত্রে নয়।
তবে, Take It Down Act-এর অন্যান্য বিধান প্ল্যাটফর্মগুলিকে চিত্রিত ব্যক্তিদের জন্য ছবি অপসারণের অনুরোধ করার একটি প্রক্রিয়া প্রতিষ্ঠা করতে বাধ্য করে। একবার "Take It Down Request" জমা দেওয়া হলে, একটি প্ল্যাটফর্মকে ৪৮ ঘণ্টার মধ্যে যৌন স্পষ্ট চিত্র অপসারণ করতে হবে। কিন্তু এই প্রয়োজনীয়তাগুলি ১৯ মে, ২০২৬ পর্যন্ত কার্যকর হবে না।
এদিকে, Grok দ্বারা উৎপন্ন যৌন স্পষ্ট ছবি সরানোর জন্য ব্যবহারকারীদের অনুরোধ দৃশ্যত অনুত্তরিত রয়ে গেছে। এমনকি Elon Musk-এর এক সন্তানের মা, Ashley St. Clair, Musk-এর ভক্তরা Grok ব্যবহার করে তার যে জাল যৌনকৃত ছবি তৈরি করেছে তা X-কে দিয়ে সরাতে পারেননি। The Guardian রিপোর্ট করেছে যে St. Clair বলেছেন তার "X কর্মীদের কাছে অভিযোগগুলি কোথাও যায়নি।"
এটি আমাকে অবাক করে না কারণ Musk প্ল্যাটফর্ম অধিগ্রহণের পরপরই তৎকালীন Twitter-এর Trust and Safety উপদেষ্টা গ্রুপ ধ্বংস করেছিলেন এবং কোম্পানির বিশ্বাস এবং নিরাপত্তায় নিবেদিত ৮০% প্রকৌশলী বরখাস্ত করেছিলেন। Trust and safety টিমগুলি সাধারণত প্রযুক্তি কোম্পানিগুলিতে কন্টেন্ট মডারেশন এবং অপব্যবহার রোধের উদ্যোগের জন্য দায়ী।
প্রকাশ্যে, দেখা যাচ্ছে যে Musk পরিস্থিতির গুরুত্বকে উড়িয়ে দিয়েছেন। Musk কথিতভাবে কিছু ছবির প্রতিক্রিয়ায় হাসি-কান্না ইমোজি পোস্ট করেছেন, এবং X একজন Reuters সাংবাদিকের অনুসন্ধানে স্বয়ংক্রিয় উত্তর দিয়েছে "Legacy Media Lies।"
Adam Raine-এর পিতামাতার দ্বারা দায়ের করা মামলার মতো দেওয়ানি মামলা, যিনি ২০২৫ সালের এপ্রিলে OpenAI-এর ChatGPT-এর সাথে মিথস্ক্রিয়া করার পরে আত্মহত্যা করেছিলেন, প্ল্যাটফর্মগুলিকে দায়বদ্ধ করার একটি উপায়। কিন্তু Communications Decency Act-এর Section 230-এর কারণে যুক্তরাষ্ট্রে মামলাগুলি একটি কঠিন লড়াইয়ের মুখোমুখি হয়, যা সাধারণত সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলিকে তাদের প্ল্যাটফর্মে ব্যবহারকারীদের পোস্ট করা কন্টেন্টের জন্য আইনি দায় থেকে অব্যাহতি দেয়।
সুপ্রিম কোর্টের বিচারপতি Clarence Thomas এবং অনেক আইনি বিশেষজ্ঞ, তবে, যুক্তি দিয়েছেন যে Section 230 আদালত দ্বারা অত্যধিক ব্যাপকভাবে প্রয়োগ করা হয়েছে। আমি সাধারণত একমত যে Section 230 অব্যাহতি সংকীর্ণ করা দরকার কারণ প্রযুক্তি কোম্পানি এবং তাদের প্ল্যাটফর্মগুলিকে তাদের ইচ্ছাকৃত ডিজাইন পছন্দের জন্য অব্যাহতি দেওয়া — কীভাবে তাদের সফ্টওয়্যার তৈরি করা হয়, সফ্টওয়্যার কীভাবে কাজ করে এবং সফ্টওয়্যার কী উৎপাদন করে — Section 230-এর সুরক্ষার সুযোগের বাইরে পড়ে।
এই ক্ষেত্রে, X জেনেশুনে বা অবহেলাবশত Grok-এ সুরক্ষা এবং নিয়ন্ত্রণ স্থাপন করতে ব্যর্থ হয়েছে যাতে ব্যবহারকারীরা শনাক্তযোগ্য ব্যক্তিদের যৌন স্পষ্ট ছবি তৈরি করতে না পারে। এমনকি যদি Musk এবং X বিশ্বাস করেন যে ব্যবহারকারীদের Grok ব্যবহার করে প্রাপ্তবয়স্কদের যৌন স্পষ্ট ছবি তৈরি করার ক্ষমতা থাকা উচিত, আমি বিশ্বাস করি যে কোনো বিশ্বে X-কে বাস্তব জীবনের শিশুদের যৌন স্পষ্ট উপাদান তৈরি করে এমন একটি পণ্য তৈরি করার জন্য দায়বদ্ধতা থেকে মুক্তি পাওয়া উচিত নয়।
যদি লোকেরা দেওয়ানি মামলার মাধ্যমে X-এর মতো প্ল্যাটফর্মগুলিকে দায়বদ্ধ রাখতে না পারে, তাহলে এটি ফেডারেল সরকারের উপর পড়ে তাদের তদন্ত এবং নিয়ন্ত্রণ করার জন্য। উদাহরণস্বরূপ, Federal Trade Commission, Department of Justice বা Congress, Grok-এর অসম্মতিমূলক যৌন স্পষ্ট উপাদান তৈরির জন্য X-এর তদন্ত করতে পারে। কিন্তু President Donald Trump-এর সাথে Musk-এর নতুন রাজনৈতিক সম্পর্কের কারণে, আমি শীঘ্রই কোনো গুরুতর তদন্ত এবং দায়বদ্ধতা আশা করি না।
আপাতত, আন্তর্জাতিক নিয়ন্ত্রকরা X এবং Grok-এর বিরুদ্ধে তদন্ত শুরু করেছেন। ফরাসি কর্তৃপক্ষ Grok থেকে "যৌন স্পষ্ট ডিপফেকের বিস্তার" নিয়ে তদন্ত শুরু করেছে, এবং Irish Council for Civil Liberties এবং Digital Rights Ireland আয়ারল্যান্ডের জাতীয় পুলিশকে "ব্যাপক পোশাক খোলার উৎসব" তদন্ত করতে দৃঢ়ভাবে অনুরোধ করেছে। U.K. নিয়ন্ত্রক সংস্থা Office of Communications বলেছে যে এটি বিষয়টি তদন্ত করছে, এবং European Commission, ভারত এবং মালয়েশিয়ার নিয়ন্ত্রকরাও কথিতভাবে X-এর তদন্ত করছে।
যুক্তরাষ্ট্রে, সম্ভবত মে মাসে Take It Down Act কার্যকর হওয়া পর্যন্ত সর্বোত্তম পদক্ষেপ হলো মানুষের জন্য নির্বাচিত কর্মকর্তাদের কাছ থেকে পদক্ষেপের দাবি করা। – Rappler.com
নিবন্ধটি মূলত The Conversation-এ প্রকাশিত হয়েছিল।
Wayne Unger, Associate Professor of Law, Quinnipiac University
![[HOMESTRETCH] ঘণ্টার বাইরে: নেস্থি পেটেসিওর হয়ে ওঠা](https://www.rappler.com/tachyon/2026/01/home-stretch-nesthy-petecio.jpeg)

