NCSC এআই ভাষার মডেল সম্পর্কে সতর্ক করে কিন্তু সাইবার অ্যালার্মিজম কম্পিউটার উইকলিকে খারিজ করে

ব্রিটিশ ন্যাশনাল সাইবার সিকিউরিটি সেন্টার (NCSC) এআই টুল ব্যবহারকারীদের জন্য পরামর্শ এবং নির্দেশিকা জারি করে যেমন chatgpt যারা বড় ভাষা মডেল (LLM) অ্যালগরিদমগুলির উপর নির্ভর করে তারা বলে যে তারা কিছু ডেটা গোপনীয়তার ঝুঁকি উপস্থাপন করে, সাইবার অপরাধমূলক কার্যকলাপের পরিষেবাতে তাদের মোতায়েন করার ক্ষেত্রে তারা অগত্যা কার্যকর নয়।

ইউএস স্টার্টআপ ওপেনএআই চ্যাটজিপিটি বন্যের মধ্যে প্রকাশ করার পর থেকে এলএলএম ব্যবহারে তাত্পর্যপূর্ণ বৃদ্ধি পেয়েছে 2022 এর শেষইঙ্গিত গুগল এবং মাইক্রোসফটের পছন্দ আপনার এআই চ্যাটবটগুলিকে গতিতে উন্মোচন করার জন্য আলাদা ফলাফল সহ।

এলএলএমগুলি প্রচুর পরিমাণে পাঠ্য-ভিত্তিক ডেটা অন্তর্ভুক্ত করে কাজ করে, সাধারণত স্পষ্ট অনুমতি ছাড়াই সর্বজনীন ইন্টারনেট থেকে স্ক্র্যাপ করা হয়। এটি করার সময়, NCSC বলেছে, তারা অগত্যা সমস্ত আপত্তিকর বা ভুল উপাদান ফিল্টার করে না, যার অর্থ সম্ভাব্য বিতর্কিত উপাদানগুলি প্রবেশ থেকে অন্তর্ভুক্ত করা হতে পারে।

অ্যালগরিদম তার ডেটাসেটে শব্দগুলির মধ্যে সম্পর্কগুলিকে বিশ্লেষণ করে এবং এগুলিকে একটি সম্ভাব্যতা মডেলে পরিণত করে যা এই সম্পর্কের উপর ভিত্তি করে উত্তর প্রদান করতে ব্যবহৃত হয় যখন চ্যাটবটকে অনুরোধ করা হয়।

“এলএলএমগুলি নিঃসন্দেহে তাদের একাধিক মানব এবং কম্পিউটার ভাষায় বিশ্বাসযোগ্য বিষয়বস্তু তৈরি করার ক্ষমতার জন্য চিত্তাকর্ষক। যাইহোক, তারা জাদু নয়, তারা কৃত্রিম সাধারণ বুদ্ধিমত্তা নয় এবং তাদের কিছু গুরুতর ত্রুটি রয়েছে।” এনসিএসসির গবেষক ড,

উদাহরণস্বরূপ, এই ধরনের চ্যাটবটগুলি প্রায়শই কিছু ভুল করে এবং ভুল তথ্যগুলিকে “হ্যালুসিনেট” করতে দেখা গেছে। তারা কুসংস্কার প্রবণ এবং একটি প্রধান প্রশ্ন জিজ্ঞাসা করা হলে প্রায়ই খুব নির্বোধ হতে পারে। তাদের বিশাল গণনা সংস্থান এবং বিশাল ডেটাসেট প্রয়োজন পরেরটিতে নৈতিক এবং গোপনীয়তার প্রশ্ন রয়েছে, অবশেষে, NCSC বলেছে, তারা বিষাক্ত পদার্থ তৈরি করতে পারে এবং ইনজেকশন আক্রমণের ঝুঁকিতে থাকে।

গবেষণা দলটি সতর্ক করে বলেছে যে যদিও এলএলএমগুলি তাদের যে প্রশ্নগুলির সাথে প্রম্পট করা হয় তা থেকে শিখে না, প্রশ্নগুলি সাধারণত মডেলটির মালিক প্রতিষ্ঠানের কাছে দৃশ্যমান হবে, যা তাদের পরিষেবার আরও বিকাশের জন্য ব্যবহার করতে পারে৷ হোস্টিং সংস্থা গোপনীয়তার জন্য একটি ভিন্ন পদ্ধতির সাথে একটি সংস্থা দ্বারা অধিগ্রহণ করা হতে পারে, বা ডেটা ফাঁসের ফলে সাইবার আক্রমণের শিকার হতে পারে।

সংবেদনশীল ডেটা সম্বলিত প্রশ্নগুলিও উদ্বেগের কারণ হয়ে দাঁড়ায় – উদাহরণস্বরূপ, অ-পাবলিক তথ্য সহ একটি AI চ্যাটবটকে প্রম্পট করার উপর ভিত্তি করে বিনিয়োগের পরামর্শ চাওয়া কেউ একটি অভ্যন্তরীণ বাণিজ্য লঙ্ঘন করতে পারে।

এইভাবে, NCSC AI চ্যাটবট ব্যবহারকারীদের পরিষেবার ব্যবহারের শর্তাবলী এবং গোপনীয়তা নীতিগুলির সাথে সম্পূর্ণরূপে পরিচিত হওয়ার পরামর্শ দিচ্ছে, এবং একটি প্রশ্নে সংবেদনশীল তথ্য অন্তর্ভুক্ত করা বা একটি প্রশ্ন জমা দেওয়ার বিষয়ে খুব সতর্কতা অবলম্বন করা, যা একটি সমস্যা হতে পারে। পাবলিক যান

NCSC এছাড়াও পরামর্শ দিয়েছে যে সংস্থাগুলি নির্দিষ্ট ব্যবসায়িক ফাংশনগুলিকে স্বয়ংক্রিয় করার জন্য LLM ব্যবহার করার কথা বিবেচনা করে তাদের পাবলিক LLM ব্যবহার করা এড়িয়ে চলা উচিত এবং হয় একটি হোস্ট করা, ব্যক্তিগত পরিষেবার দিকে ঝুঁকুন বা তাদের নিজস্ব মডেল তৈরি করুন৷

এলএলএম এর সাইবার ক্রিমিনাল ব্যবহার

গত কয়েক মাস ধরে এ নিয়ে দীর্ঘ বিতর্ক হয়েছে দূষিত অভিনেতাদের জন্য LLM এর উপযোগিতা সম্পর্কেতাই NCSC গবেষকরাও বিবেচনা করেছেন যে এই মডেলগুলি সাইবার অপরাধীদের জীবনকে সহজ করে তোলে কিনা।

স্বীকৃত যে LLM কীভাবে স্বল্প-দক্ষ ব্যক্তিদের দ্বারা ব্যবহার করা যেতে পারে তার কিছু “অবিশ্বাস্য” প্রদর্শন রয়েছে ম্যালওয়্যার লিখতেNCSC বলে যে বর্তমান সময়ে, LLM আত্মবিশ্বাসী দেখাতে আচ্ছন্ন, এবং সাধারণ কাজের জন্য আরও উপযুক্ত। এর মানে হল যে যখন এমন কাউকে সাহায্য করার কথা আসে যে ইতিমধ্যেই তাদের ক্ষেত্রে একজন বিশেষজ্ঞ, তারা তাদের ক্ষেত্রে আগে থেকেই একজন বিশেষজ্ঞকে সাহায্য করার চেয়ে সময় সাশ্রয় করতে বেশি উপযোগী৷ কিন্তু স্ক্র্যাচ থেকে শুরু করে ফলাফলগুলিকে যাচাই করতে পারে৷

“আরও জটিল কাজের জন্য, বর্তমানে একজন বিশেষজ্ঞের পক্ষে স্ক্র্যাচ থেকে ম্যালওয়্যার তৈরি করা সহজ, বরং এলএলএম কী তৈরি করেছে তা ঠিক করতে সময় ব্যয় করার পরিবর্তে,” গবেষকরা বলেছেন।

“তবে, অত্যন্ত সক্ষম ম্যালওয়্যার তৈরি করতে সক্ষম একজন বিশেষজ্ঞ সম্ভবত সক্ষম ম্যালওয়্যার লিখতে সক্ষম LLM লিখতে সক্ষম হবেন৷ ‘স্ক্র্যাচ থেকে ম্যালওয়্যার তৈরি করতে LLM ব্যবহার করে’ এবং ‘LLM দ্বারা তৈরি ম্যালওয়্যার যাচাইকরণ’-এর মধ্যে এই চুক্তিটি উন্নতির সাথে পরিবর্তিত হবে৷ এলএলএম

এটি সাইবার আক্রমণ পরিচালনা করতে এলএলএম নিয়োগ করতে সহায়তা করে যা আক্রমণকারীর নিজস্ব ক্ষমতার বাইরে। আবার, তারা বর্তমানে এখানে কম পড়ে কারণ তারা কঠিন চেহারার উত্তর প্রদান করতে পারে, তারা সম্পূর্ণরূপে সঠিক নাও হতে পারে। অতএব, একজন LLM অসাবধানতাবশত একজন সাইবার অপরাধীকে এমন কিছু করার জন্য প্রতারণা করতে পারে যা তাদের সনাক্ত করা সহজ করে তুলবে। এলএলএম অপারেটরদের সাইবার অপরাধমূলক প্রশ্ন বজায় রাখার সমস্যাটিও এখানে প্রাসঙ্গিক।

NCSC অবশ্য স্বীকার করেছে যে এলএলএমগুলি যেহেতু লেখার শৈলীগুলি অনুলিপি করতে পারদর্শী প্রমাণিত হচ্ছে, সেগুলি ব্যবহার করার ঝুঁকিতে রয়েছে৷ কীভাবে বিশ্বাসযোগ্য ফিশিং ইমেল লিখবেন – সম্ভবত ইংরেজি লেখা বা বলার সময় রাশিয়ান-স্পীকারদের দ্বারা করা কিছু সাধারণ ত্রুটি এড়ানো, যেমন নির্দিষ্ট নিবন্ধ বাদ দেওয়া – বরং আরও চাপযুক্ত।

“এটি আক্রমণকারীদের উচ্চ প্রযুক্তিগত দক্ষতার সাথে সাহায্য করতে পারে কিন্তু যাদের ভাষাগত দক্ষতা নেই, তাদের ফিশিং ইমেল তৈরি করতে বা তাদের লক্ষ্যের স্থানীয় ভাষায় সামাজিক প্রকৌশল পরিচালনা করতে সহায়তা করে,” দলটি বলেছে।

Source link

Leave a Comment