Responsible AI یا قوانین هوش مصنوعی، کجا هستند؟

احتمالا با شخصیت دکتر اختاپوس در فیلم مرد عنکبوتی آشنا هستید. صحبت از تکنولوژی هوش مصنوعی یعنی همان حرکت آرمانی که دکتر برای رفع محدودیت‌های خود با دستگاهی که ساخت انجام داد. در این مقاله می‌خواهیم بررسی کنیم که اگر چیپ کنترل دستگاه دکتر اختاپوس شکست و او را به یک غول تبدیل کرد باید چه کنیم؟ نتیجه چنین رخدادی بر گردن چه کسی است، آیا اصلا باید اجازه تولید چنین چیزی را داد یا نه؟ اینجاست که Responsible AI به کمک ما می‌آید. ما در این مقاله از آکادمی آمانج می‌خواهیم ببینیم آیا هنوز قوانین هوش مصنوعی متولی خاصی دارد؟

حقوق هوش مصنوعی چیست؟

در نظر خیلی از مردم هوش مصنوعی حرکتی آرمانی و رو به‌جلو در دنیایی است که با کمک‌‌ تکنولوژی هیچ محدودیتی در کره خاکی ندارند. (برای آشنایی با کاربردهای هوش مصنوعی در سال ۲۰۲۲ به این مقاله سر بزنید.) افراد دیگری هم هستند که به هوش مصنوعی با مثبت اندیشی کمتری نگاه می‌کنند. بسیاری از نکات مثل تصمیم‌های اشتباه یا گرفتن قدرت از کارگران و نبود حریم خصوصی و بحث امینت داده‌ها از جمله این موارد است که در فکر این بخش مرتب هشدار می‌دهد. این‌جاست که فقدان قانون نمایان می‌شود. قوانین هوش مصنوعی در واقع راهی برای پاسخگویی به این مسائل و مسئولیت‌پذیر کردن شرکت‌های استفاده کننده از این تکنولوژی است.

هوش مصنوعی چیست و چرا به قانون نیاز دارد؟

به نظرم حالا زمان آن رسیده که به‌صورت متمرکز جواب این سوال را بدهیم (مگر هوش مصنوعی چیست که نیاز به قانون و مسئولیت پذیری دارد؟)

وقتی در مورد AI حرف می‌زنیم منظورمان مدلی از ماشین لرنینگ است که در پروداکت‌های مختلف اجرا می‌شود. مثلا خودروهای بدون سرنشین باید به‌صورت خودکار مسیر و چالش‌های احتمالی موجود در آن را تشخیص و تصمیم دقیق بدون دخالت انسان بگیرند. آن‌ها داده‌های به‌دست آورده از حسگرهای مختلف را دریافت، تحلیل و خیلی از مواقع باید در کمتر از چند صدم ثانیه تصمیمی دقیق بگیرند.

خودرو تشخیص می‌دهد شی خاصی جلو حرکتش را گرفته است در نتیجه: اول باید تشخیص دهد آن شی چیست، دوم باید تصمیم بگیرد چه عکس‌العملی برای ادامه مسیر نشان دهد. آیا تصمیم توقف است یا حرکت به چپ؟ در صورت ترمز کامل خودرو پشت سر چه شرایطی دارد و حرکت به راست چه نتیجه‌ای؟

Responsible AI

احتمالا تا همین‌جا قانع شده‌اید که این سیستم چقدر پیچیده و خاص است و باید شرایط و قوانین و مقررات خاص خود را داشته باشد وگرنه جولان آن‌ها به‌صورت فراگیر خصوصا در صنایع آثار مخربی در جامعه انسانی به‌جا می‌گذارد.

شما می‌توانید همین موضوع خودرو را به سلاح‌های نظامی، وسایل حمل‌ونقل عمومی‌وخصوصی حتی گجت‌های حوزه تکنولوژی و چالشی‌ترین بحث هوش مصنوعی یعنی ربات انسان نما تعمیم دهید تا متوجه خلأ بسیار بزرگ ماجرا شوید. Responsible AI یا قوانین هوش مصنوعی هدفی جز مسئولیت‌پذیر کردن این علم و دنیای بزرگش ندارد.

وقتی حرف از Responsible AI می‌زنیم منظورمان چیست؟

جوامع مختلف تعاریف متفاوت و روش‌های مختلفی در تفسیر و استفاده از کلمه قانون دارند. خیلی از آن‌ها با قانون تخریب و خیلی به رشد و ترقی زمین کمک می‌کنند.

Responsible AI بهتر است با در نظر داشتن دموکراسی و اخلاق تدوین و جزییاتی مثل نحوه ارزیابی داده‌ها و چگونگی ارزیابی، نظارت و استقرار مدل‌های هوش مصنوعی در پلتفرم و محصولات مختلف به آن اضافه شود. علاوه‌بر این می‌تواند مشخص کند که در صورت بروز اختلال یا مشکلی در زندگی مردم چه کسی مسئول آن است.

تفسیرهای مختلفی از قوانین هوش مصنوعی وجود دارد، اما هدف مشترک همه آن‌ها رسیدن به نتیجه‌ای منصفانه برای رشد بشر کنار سیستمی تفسیر پذیر، معتدل، منصف، امن، امین و قابل اعتماد است.

هدف از نوشتن قوانین هوش مصنوعی چیست؟

هنوز بعد از سال‌ها رشد و بالندگی این صنعت قوانین خاصی برای آن نوشته نشده است. در ادامه به بررسی اهداف احتمالی که Responsible AI باید دنبال کنند می‌پردازیم.

۱. کمک به تفسیر پذیر کردن هوش مصنوعی

اولین نکته که به آن اشاره شد تفسیر پذیر بودن است. درواقع وقتی مدلی از هوش مصنوعی را تفسیر می‌کنیم قصدمان توضیح دلایل و چگونگی انتخاب یا پیش‌بینی انتخاب‌هایش است. فکر کنید دستگاهی تشخیص می‌دهد شما سرطان دارید یا درخواست وام مسکنتان را رد می‌کند. با هر جوابی طبیعتا شما به‌دنبال چراییش خواهید بود. البته این موضوع را هم باید مد نظر داشت که تفسیر بعضی مدل‌ها سخت و تفسیر بعضی راحت‌تر است. Responsible AI می‌توانند تعیین کنند که در چه زمینه‌ای از مدل‌های قابل تفسیر استفاده کنیم یا کجا از مدل‌هایی که تفسیر پذیری کمتری دارند.

۲. حرکت به سمت هوش مصنوعی منصف

هدف دوم نوشتن قانونی است که انصاف را در هوش مصنوعی نهادینه کند. ما در حال صحبت در مورد سیستمی هستیم که انواع اطلاعات را دریافت، پردازش و براساس آن نتیجه‌گیری می‌کند. چنین سیستمی با قدرتی که دارد، می‌تواند جانب انصاف را نسبت‌به دسته‌های مختلف اجتماع از دست بدهد و در واقع قدم در مسیر تبعیض بگذارد.

در عمل هرچه مدل‌های استفاده شده قابل پیش‌بینی باشند سنجش رعایت اعتدال و انصاف نیز در آن‌ها راحت‌تر است. پس ما برای هوش مصنوعی به قوانینی نیاز داریم که در سنجش اعتدال و انصاف کمک حالمان باشند.

۳. هوش مصنوعی امن

موضوع دیگر امنیت است. امنیت یکی از قدیمی‌ترین چالش‌های مطرح در حوزه سخت‌افزار و نرم‌افزار است و خیلی بحث غریبی برای این حوزه نیست، اما در این شاخه‌ها با تکنیک‌هایی مثل رمزگذاری و تست‌های نرم افزاری رفع شده است، اما در هوش مصنوعی خبری از تست و رمزگذاری نیست.

در واقع ما با مدلی رو‌به‌رو هستیم که در شرایط مختلف تصمیم‌های متفاوتی می‌گیرد یا فرایندی دارد که درصورت مختل شدنش تصمیم‌گیری هم مختل می‌شود یا به‌سمت ناهنجاری می‌رود. مثال عینی آن‌ها خودروهای خودران یا ربات‌هاست که می‌توانند آسیب‌هایی مثل مرگ و ویرانی به همراه داشته باشند.

۴. کیفیت در دسترسی به اطلاعات

آخرین موضوع بحث قدیمی و شیرین داده‌هاست که همین الآن هم در خیلی از شبکه‌های اجتماعی یا شرکت‌های فناوری نقض و خبرش هم منتشر شده است. در هوش مصنوعی کیفیت و کمیت اطلاعاتی که مدل به‌دست می‌آورد در تصمیم گیری بسیار اهمیت دارد. به‌طور کلی هیچ مدل از هوش مصنوعی نباید اجازه استفاده از اطلاعات شخصی (پزشکی یا شرایط سیاسی و…) داشته باشد. البته خیلی از کشورها به کمپانی و شرکت‌های فعال در این زمینه Responsible AI خود را ابلاغ کرده اند، اما این قوانین اصلا جنبه عمومی ندارند.

۵. اعتماد دوطرفه نتیجه اجرا قوانین

در نهایت با دنبال کردن اهداف Responsible AI که گفته شد یک نتیجه به‌وجود خواهد آمد و آن اعتماد کاربر به هر محصولی است که هوش مصنوعی در آن استفاده شده. اگر این اعتماد بین کاربر و ارائه دهنده خدمت شکل نگیرد استفاده‌ای هم در کار نخواهد بود. ساخت این اعتماد نیازمند تلاش دوطرفه است که بعد از نگارش قوانین هوش مصنوعی شکل بگیرد.

آینده Responsible AI چیست؟

درحال حاضر وقتی صحبت از قوانین هوش مصنوعی می‌شود، انتظار می‌رود، کمپانی‌های بزرگ با قوانین صحیح و منصفانه خود را ملزم به رعایت کنند. شرکت‌های بزرگی مثل مایکروسافت، گوگل و IBM قوانین خاص خود را دارند، اما نمی‌توان منکر تناقض در قانون‌گذاری بین آن‌ها شد. این درحالیست که خیلی از شرکت‌های کوچک هیچ نقشه راهی هم برای تدوین قوانین اختصاصی ندارند.

راه‌حل بالقوه این مسئله اینست که قوانین یکسان و کلی برای تمام شرکت‌ها تنظیم شود و آن‌ها را ملزم به اجرا کند. نمونه بارز آن‌ها دستورالعمل‌های اخلاقی اتحادیه اروپا برای هوش مصنوعی است تا شرکت‌هایی که قصد فعالیت در این قسمت از دنیا را دارند از آن‌ها پیروی کنند. استفاده از Responsible AI این اطمینان را می‌دهد که تمام کمپانی‌های موجود شرایط یکسانی را در مدل‌های مختلف هوش مصنوعی دارند، اما سوال اصلی این‌جاست که آیا می‌توان به آن‌ها اعتماد کرد؟

قوانین هوش مصنوعی

گزارش وضعیت هوش مصنوعی و ماشین لرنینگ در سال ۲۰۲۰ از ۳۷۴ کمپانی که از تکنولوژی هوش مصنوعی استفاده می‌کند منتشر شده که نشان می‌دهد: هوش مصنوعی برای ۷۵ درصد از آن‌ها اهمیت بسیار زیادی دارد ولی فقط ۲۵ درصد پایبند به قوانین هوش مصنوعی و رعایت انصاف و اخلاق در آن هستند.

این گزارش نشان می‌دهد جواب سوال بالا (خیر) است. مردم نباید و نمی‌توانند به کمپانی‌های مدعی اعتماد کنند. برای این‌که دستورالعمل‌ها موثر باشند، باید اجرا شوند. این به معنی تبدیل شدن هر دستورالعمل در این زمینه به قانون است. قانونی که رعایت آن الزامی و تخطی از آن مجازات در بر دارد.

Responsible AI در حال حاضر کجاست؟

مسیری که فعلا جهان در آن قرار دارد زمان است. تقریبا همه به اهمیت تصویب Responsible AI پی‌برده و درصدد تدوین آن‌ها هستند. با شرایطی که اتحادیه اروپا ایجاد کرده اولین قدم برای مسئولیت‌پذیر کردن هوش مصنوعی برداشته شده. شرکت‌های بزرگی مثل گوگل، اپل، مایکروسافت و فیسبوک نیز همین درخواست را دارند پس جامعه جهانی حالا نیازمند زمان برای پخته‌تر شدن نظریه‌ها و تدوین قوانین است. مهمترین موضوع فعلی، زمان برای شکل گیری اتحادی جهانی در مسئولیت‌پذیرکردن هوش مصنوعی است.

نظر شما چیست؟ آیا هوش مصنوعی در مسیر صلح آمیز قدم برمی‌دارد یا مثل انرژی هسته‌ای به‌سمت ویران کردن حرکت می‌کند؟ نظر خود را با ما به اشتراک بگذارید و شما تکمیل کننده مقاله‌ای باشید که احتمالا نقص‌هایی دارد. حالا که با هوش مصنوعی آشنا شدید اگر به یادگیری این حوزه علاقه‌مندید سری به دوره‌های آموزش ماشین لرنینگ آکادمی آمانج بزنید.

The post Responsible AI یا قوانین هوش مصنوعی، کجا هستند؟ appeared first on آمانج آکادمی مرکز آموزش های برنامه نویسی ، دیجیتال مارکتینگ و دیزاین.

دیدگاهتان را بنویسید