এআই পয়জনিং এখন কৃত্রিম বুদ্ধিমত্তার জন্য একটি গুরুতর হুমকি হয়ে উঠেছে। ইউকে এআই সিকিউরিটি ইনস্টিটিউট, অ্যালান টুরিং ইনস্টিটিউট এবং অ্যানথ্রপিকের একটি প্রতিবেদনে বলা হয়েছে যে প্রশিক্ষণ ডেটাতে সামান্য পরিমাণে দূষিত তথ্যও পুরো মডেলকে কলুষিত করতে পারে। এটি মডেলের আচরণ পরিবর্তন করে ভুল তথ্য এবং নিরাপত্তার ঝুঁকি তৈরি করতে পারে।
এআই পয়জনিংয়ের হুমকি: কৃত্রিম বুদ্ধিমত্তায় এআই পয়জনিং দ্রুত বর্ধনশীল একটি হুমকি হয়ে দাঁড়াচ্ছে। ইউকে এআই সিকিউরিটি ইনস্টিটিউট, অ্যালান টুরিং ইনস্টিটিউট এবং অ্যানথ্রপিকের সাম্প্রতিক প্রতিবেদনে প্রকাশিত হয়েছে যে, কোনো মডেলের প্রশিক্ষণ ডেটাতে কেবলমাত্র কয়েকটি দূষিত ফাইল প্রবেশ করালেই পুরো মডেলটি কলুষিত হতে পারে। এই প্রক্রিয়া মেশিনের আচরণ পরিবর্তন করে ভুল উত্তর এবং ক্ষতিকারক ফলাফল তৈরি করতে পারে। বিশেষজ্ঞরা বলছেন, ডেটা সুরক্ষা এবং কঠোর প্রশিক্ষণের মান এটি প্রতিরোধের জন্য অপরিহার্য, যাতে ব্যবহারকারী এবং সিস্টেম সুরক্ষিত থাকতে পারে।
এআই পয়জনিং কীভাবে ঘটে

এআই পয়জনিংকে দুটি ভাগে ভাগ করা হয়েছে: ডেটা পয়জনিং এবং মডেল পয়জনিং। ডেটা পয়জনিং তখন ঘটে যখন মডেলের প্রশিক্ষণের (training) সময় ডেটাতে কারসাজি করা হয়। মডেল পয়জনিংয়ে প্রশিক্ষণের পরে মডেলের কোড বা প্যারামিটার পরিবর্তন করা হয়।
আক্রমণের প্রকারভেদ
- সরাসরি বা লক্ষ্যবস্তু আক্রমণ (Direct or Targeted Attack): এতে মডেলের প্রতিক্রিয়াগুলি কেবল কোনও নির্দিষ্ট সংকেত (trigger) পেলে পরিবর্তিত হয়। উদাহরণস্বরূপ, যদি কোনও হ্যাকার কোনও বিশেষ ব্যক্তি সম্পর্কে আপত্তিকর প্রতিক্রিয়া দিতে চায়, তবে সে প্রশিক্ষণের ডেটাতে এমন উদাহরণ যোগ করে।
- পরোক্ষ বা অ-লক্ষ্যবস্তু আক্রমণ (Indirect or Non-Targeted Attack): এতে পুরো মডেলের কার্যকারিতা দুর্বল করা হয়। আক্রমণকারীরা ইন্টারনেটে মিথ্যা তথ্য ছড়িয়ে দেয়, যা মডেল শিখে নেয় এবং পরবর্তীতে তাকে সত্য মনে করে পুনরাবৃত্তি করতে থাকে।
বাস্তব জগতে বিপদ
এআই পয়জনিং কেবল ভুল তথ্যই ছড়ায় না, বরং নিরাপত্তার ঝুঁকিও বাড়ায়। উদাহরণস্বরূপ, কোনও মডেলে মাত্র 0.001% মিথ্যা চিকিৎসা ডেটা প্রবেশ করালে সেটি ক্ষতিকারক চিকিৎসা পরামর্শ দিতে পারে, যদিও তার পরীক্ষার স্কোর স্বাভাবিক থাকে। 2023 সালে OpenAI-কে ChatGPT সাময়িকভাবে বন্ধ করতে হয়েছিল যখন কিছু ব্যবহারকারীর চ্যাট এবং অ্যাকাউন্টের বিবরণ ফাঁস হয়ে গিয়েছিল।
এআই পয়জনিং দেখতে সামান্য মনে হতে পারে, কিন্তু এর গুরুতর ফলাফল মডেলের আচরণ এবং ব্যবহারকারীদের সুরক্ষার ওপর গভীর প্রভাব ফেলতে পারে। বিশেষজ্ঞরা বলছেন যে, এর জন্য কঠোর নিরাপত্তা ব্যবস্থা এবং প্রশিক্ষণ ডেটার প্রতি সতর্কতা অত্যন্ত জরুরি।













