এআই এথিসিস্ট বলেছেন যে আজকের এআই বুম সামাজিক সমস্যাগুলিকে আরও বাড়িয়ে তুলবে যদি আমরা এখন কাজ না করি

এআই ডেভেলপারদের অবশ্যই দ্রুত অগ্রসর হতে হবে সেই ঠিকানাগুলিকে বিকাশ ও স্থাপন করতে অ্যালগরিদমিক পক্ষপাতসেলসফোর্সের এথিক্যাল এআই প্র্যাকটিস এর প্রধান স্থপতি ক্যাথি ব্যাক্সটার বলেছেন। ZDNET-এর সাথে একটি সাক্ষাত্কারে, Baxter ন্যায্য এবং নিরপেক্ষ AI সিস্টেমগুলি নিশ্চিত করার জন্য ডেটা সেট এবং ব্যবহারকারীর গবেষণায় বিভিন্ন প্রতিনিধিত্বের প্রয়োজনীয়তার উপর জোর দিয়েছিলেন। তিনি ব্যক্তিগত গোপনীয়তা রক্ষা করার সময় এআই সিস্টেমগুলিকে স্বচ্ছ, বোধগম্য এবং জবাবদিহি করার গুরুত্ব তুলে ধরেন। ব্যাক্সটার ক্রস-সেক্টর সহযোগিতার প্রয়োজনীয়তার উপর জোর দিয়েছেন, যেমন ন্যাশনাল ইনস্টিটিউট অফ স্ট্যান্ডার্ডস অ্যান্ড টেকনোলজি দ্বারা ব্যবহৃত মডেল (NIST), যাতে আমরা মজবুত এবং সুরক্ষিত AI সিস্টেম তৈরি করতে পারি যা সকলের উপকারে আসে।

AI নীতিশাস্ত্রের মৌলিক প্রশ্নগুলির মধ্যে একটি হল AI সিস্টেমগুলি নিশ্চিত করা উন্নত এবং স্থাপন করা হয়েছে বিদ্যমান সামাজিক কুসংস্কারকে শক্তিশালী না করে বা নতুন তৈরি না করে। এটি অর্জনের জন্য, ব্যাক্সটার এআই প্রযুক্তি থেকে কে উপকৃত হয় এবং কে অর্থ প্রদান করে তা জিজ্ঞাসা করার গুরুত্বের উপর জোর দেয়। ব্যবহৃত ডেটা সেটগুলি বিবেচনা করা এবং সেগুলি প্রত্যেকের কণ্ঠস্বর প্রতিনিধিত্ব করে তা নিশ্চিত করা গুরুত্বপূর্ণ৷ উন্নয়ন প্রক্রিয়ায় অন্তর্ভুক্তি এবং ব্যবহারকারী গবেষণার মাধ্যমে সম্ভাব্য ত্রুটিগুলি সনাক্ত করাও অপরিহার্য।

খুব: চ্যাটজিপিটির আইকিউ শূন্য, তবে এটি ব্যবহারযোগ্যতার ক্ষেত্রে একটি বিপ্লব, এআই বিশেষজ্ঞ বলেছেন

“এটি একটি মৌলিক প্রশ্ন যা আমাদের আলোচনা করতে হবে,” ব্যাক্সটার বলেন। ,বিশেষ করে রঙিন মহিলারা এই প্রশ্নটি করে আসছেন এবং বছরের পর বছর ধরে এই ক্ষেত্রে গবেষণা করছেন। আমি অনেক লোককে এই বিষয়ে কথা বলতে দেখে রোমাঞ্চিত, বিশেষ করে জেনারেটিভ এআই ব্যবহার করে। কিন্তু মৌলিকভাবে আমাদের যা করতে হবে তার মধ্যে একটি হল, কে উপকৃত হবে এবং কে এই প্রযুক্তির জন্য অর্থ প্রদান করবে তা জিজ্ঞাসা করুন। কার কণ্ঠ জড়িত?”

সামাজিক পক্ষপাতিত্ব AI সিস্টেমে তাদের প্রশিক্ষণের জন্য ব্যবহৃত ডেটা সেটের মাধ্যমে যোগাযোগ করা যেতে পারে। পক্ষপাতযুক্ত অপ্রতিনিধিত্বমূলক ডেটা সেট, যেমন প্রধানত একটি জাতি বা সাংস্কৃতিক পার্থক্যের অভাবের সাথে ইমেজ ডেটা সেট, পক্ষপাতদুষ্ট AI সিস্টেম হতে পারে। উপরন্তু, সমাজে অসমভাবে AI সিস্টেম প্রয়োগ করা বিদ্যমান স্টেরিওটাইপগুলিকে স্থায়ী করতে পারে।

এআই সিস্টেমগুলিকে স্বচ্ছ এবং গড় ব্যক্তির কাছে বোধগম্য করতে, উন্নয়ন প্রক্রিয়া চলাকালীন ব্যাখ্যাযোগ্যতাকে অগ্রাধিকার দেওয়া গুরুত্বপূর্ণ। টেকনিক যেমন “চেইন অফ থট প্রম্পটস” এআই সিস্টেমগুলিকে তাদের কাজ দেখাতে এবং তাদের সিদ্ধান্ত গ্রহণের প্রক্রিয়াগুলিকে আরও বোধগম্য করতে সাহায্য করতে পারে। ব্যাখ্যাগুলি স্পষ্ট এবং ব্যবহারকারীরা AI-উত্পন্ন সামগ্রীতে অনিশ্চয়তা সনাক্ত করতে পারে তা নিশ্চিত করার জন্য ব্যবহারকারীর গবেষণাও গুরুত্বপূর্ণ।

খুব: AI সমস্ত কাজের 25% স্বয়ংক্রিয় করতে পারে। এখানে যারা সবচেয়ে বেশি (এবং কম) ঝুঁকিতে রয়েছে

ব্যক্তিদের গোপনীয়তা রক্ষা করতে এবং AI এর দায়িত্বশীল ব্যবহার নিশ্চিত করতে স্বচ্ছতা এবং সম্মতি প্রয়োজন। সেলসফোর্স এর মত দায়বদ্ধ জেনারেটিভ এআই-এর জন্য নির্দেশিকা, ডেটা উত্সকে সম্মান করা এবং শুধুমাত্র সম্মতিতে গ্রাহক ডেটা ব্যবহার করা সহ। ব্যবহারকারীদের অপ্ট ইন, অপ্ট আউট বা তাদের ডেটা ব্যবহারের উপর নিয়ন্ত্রণ অনুশীলন করার অনুমতি দেওয়া গোপনীয়তার জন্য গুরুত্বপূর্ণ৷

“আমরা শুধুমাত্র গ্রাহকের ডেটা ব্যবহার করি যখন আমাদের তাদের সম্মতি থাকে,” ব্যাক্সটার বলেন। “যখন আপনি কারও ডেটা ব্যবহার করছেন তখন তাদের অপ্ট-ইন করার অনুমতি দেওয়ার জন্য এবং তাদের ফিরে যাওয়ার অনুমতি দেওয়ার জন্য এবং তারা আর তাদের ডেটা জড়িত করতে চায় না বলে স্বচ্ছ হওয়া সত্যিই গুরুত্বপূর্ণ।”

জেনারেটিভ AI-তে উদ্ভাবনের জন্য প্রতিযোগিতা তীব্রতর হচ্ছে, বজায় রাখা মানুষের নিয়ন্ত্রণ এবং স্বায়ত্তশাসন ক্রমবর্ধমান স্বায়ত্তশাসিত AI সিস্টেমগুলি আগের চেয়ে আরও গুরুত্বপূর্ণ। AI-উত্পাদিত সামগ্রীর ব্যবহার সম্পর্কে সচেতন সিদ্ধান্ত নেওয়ার জন্য ব্যবহারকারীদের ক্ষমতায়ন করা এবং মানুষকে লুপের মধ্যে রাখা নিয়ন্ত্রণ বজায় রাখতে সহায়তা করতে পারে।

AI সিস্টেমগুলি সুরক্ষিত, নির্ভরযোগ্য এবং ব্যবহারযোগ্য তা নিশ্চিত করা গুরুত্বপূর্ণ; এটি অর্জনের জন্য শিল্প-বিস্তৃত সহযোগিতা গুরুত্বপূর্ণ। ব্যাক্সটার প্রশংসা করেছেন এআই রিস্ক ম্যানেজমেন্ট ফ্রেমওয়ার্ক NIST দ্বারা তৈরি, বিভিন্ন ক্ষেত্রের 240 জনেরও বেশি বিশেষজ্ঞ জড়িত। এই সহযোগিতামূলক পদ্ধতি ঝুঁকি সনাক্তকরণ এবং সমাধান ভাগ করার জন্য একটি সাধারণ ভাষা এবং কাঠামো প্রদান করে।

এই নৈতিক AI সমস্যাগুলি সমাধান করতে ব্যর্থ হলে ভয়ানক পরিণতি হতে পারে পরিণতিএর ক্ষেত্রে দেখা যায় ফেসিয়াল রিকগনিশন ত্রুটির কারণে ভুলভাবে গ্রেপ্তার বা ক্ষতিকারক ছবি তৈরি করা। সুরক্ষা ব্যবস্থায় বিনিয়োগ করা এবং এখানে এবং এখন না করে শুধুমাত্র সম্ভাব্য ভবিষ্যতের ক্ষতির দিকে মনোনিবেশ করা এই সমস্যাগুলি প্রশমিত করতে এবং AI সিস্টেমগুলির দায়িত্বশীল বিকাশ এবং ব্যবহার নিশ্চিত করতে সহায়তা করতে পারে।

খুব: ChatGPT কিভাবে কাজ করে?

যেখানে AI এর ভবিষ্যত এবং আর্টিফিশিয়াল জেনারেল ইন্টেলিজেন্সের সম্ভাবনা রয়েছে জটিল বিষয়, ব্যাক্সটার বর্তমানের উপর ফোকাস করার গুরুত্বের উপর জোর দেন। AI এর দায়িত্বশীল ব্যবহার নিশ্চিত করা এবং আজকে সামাজিক পক্ষপাতের সমাধান করা ভবিষ্যতে এআই অগ্রগতির জন্য সমাজকে আরও ভালভাবে প্রস্তুত করবে। নৈতিক AI অনুশীলনে বিনিয়োগ করে এবং শিল্প জুড়ে সহযোগিতা করে, আমরা AI প্রযুক্তির জন্য একটি নিরাপদ, আরও অন্তর্ভুক্ত ভবিষ্যত গড়ে তুলতে সাহায্য করতে পারি।

“আমি মনে করি টাইমলাইন অনেক গুরুত্বপূর্ণ,” ব্যাক্সটার বলেছিলেন। “আমাদের সত্যিই এখানে এবং এখন বিনিয়োগ করতে হবে এবং এই পেশী মেমরি তৈরি করতে হবে, এই সংস্থানগুলি তৈরি করতে হবে, এমন নিয়মগুলি তৈরি করতে হবে যা আমাদের এগিয়ে যাওয়ার অনুমতি দেয় তবে এটি নিরাপদে করতে পারে।”


Source link

Leave a Comment