خطرات آینده هوش مصنوعی که اینشورتک‌ها باید برای آن آماده شوند

26 آذر 1401
شناسه : 545
منبع:

هوش مصنوعی و یادگیری ماشینی پیشران‌هایی هستند که مک‌کنزی آن را «تغییر لرزه‌ای و مبتنی بر فناوری» در صنعت بیمه می‌نامد. اما حتی زمانی که شرکت‌های فناوری بیمه راه‌های جدیدی را برای فعال کردن تجربیات هوشمند مشتریان پیدا می‌کنند، باید در به کارگیری آنچه که تحقیقات گارتنر «AI TRiSM» می‌نامد، برای دستیابی به موفقیت در کسب‌وکار و در عین حال اجتناب از دام‌های هوش مصنوعی، سختگیرانه عمل کنند.

گارتنر اعتماد، ریسک و مدیریت امنیت هوش مصنوعی (AI TRiSM= trust, risk and security management) را به عنوان «چارچوبی که از حاکمیت مدل هوش مصنوعی، قابل اعتماد بودن، انصاف، قابلیت اطمینان، استحکام، کارایی و حریم خصوصی پشتیبانی می‌کند»، تعریف می‌کند. حمایت از TRiSM به ترکیبی از فناوری و فرآیندهایی نیاز دارد که توضیح‌پذیری هوش مصنوعی، حاکمیت یادگیری ماشین و حفاظت از داده‌ها را ممکن می‌کند.

تمرکز بر TRiSM ناشی از موفقیت بسیار زیاد هوش مصنوعی در صنایعی مانند بیمه است. هرچه شرکت‌ها بیشتر به هوش مصنوعی روی بیاورند تا تصمیماتی که بر مصرف‌کنندگان تاثیر می‌گذارد را هدایت کنند، فرصت‌های بیشتری برای نتایج بد ایجاد می‌شود:

  • مصرف‌کنندگان نگران استفاده یا سوء استفاده از اطلاعات قابل شناسایی شخصی (PII) خود برای تصمیم‌گیری‌هایی هستند که بر رفاه مالی آنها موثر است. این نگرانی‌ها بر اعتماد مصرف‌کنندگان به شرکت‌هایی که از هوش مصنوعی برای اتخاذ این تصمیم‌ها استفاده می‌کنند، تاثیر می‌گذارد.
  • قانونگذاران نحوه مدیریت PII و انطباق با قوانین مربوط به کلاس‌های محافظت‌شده توسط شرکت‌ها را مورد بررسی قرار می‌دهند. مقررات پیشنهادی هوش مصنوعی مانند ADPPA و منشور حقوق هوش مصنوعی، خطرات جدیدی را برای سازمان‌هایی ایجاد می‌کنند که در برنامه‌های کاربردی درآمدزای خود به هوش مصنوعی / یادگیری ماشین متکی هستند.
  • کارشناسان فناوری اطلاعات نگرانند که هکرها نه تنها به داده‌های مصرف‌کنندگان، بلکه به الگوریتم‌هایی که در مورد صدور، قیمت‌گذاری و خسارات تصمیم می‌گیرند نیز دسترسی داشته باشند. این تهدیدات امنیتی به نوبه خود، تقویت اعتماد مصرف‌کننده و کاهش ریسک‌های نظارتی را دشوارتر می‌کند.

قابلیت پشتیبانی از TRiSM

از منظر فناوری، قابلیت‌های پشتیبانی از TRiSM هوش مصنوعی باید در پلتفرم هوش مصنوعی عملیاتی که یک شرکت برای تولید، مدیریت و نظارت بر مدل‌های یادگیری ماشین خود استفاده می‌کند، تعبیه شود. این قابلیت تضمین می‌کند که بهترین شیوه‌ها در مورد اعتماد، ریسک و امنیت، در ابزارها و فرآیندهای مورد استفاده توسط دانشمندان داده، مهندسان یادگیری ماشین، توسعه‌دهندگان نرم‌افزارهای کاربردی و سایر افراد دخیل در چرخه حیات یادگیری ماشین قرار می‌گیرند.

قابلیت‌هایی که از اعتماد هوش مصنوعی، مدیریت ریسک و امنیت پشتیبانی می‌کنند عبارتند از:

اعتماد

یکی از مؤلفه‌های کلیدی اطمینان از اعتماد به هوش مصنوعی، توضیح‌پذیری است؛ یعنی توانایی درک اینکه چگونه یک مدل به یک نتیجه رسیده است. یک سیستم مدیریت مدل سازمانی مرکزی، یک «منبع واحد حقیقت» را فراهم می‌کند که در آن دانشمندان داده می‌توانند تمام ابرداده‌ها، اسناد و مصنوعات مربوط به یک مدل را منتشر کنند و داده‌های قابل توضیح را به راحتی در دسترس قرار دهند.

شرکت‌ها همچنین باید بررسی‌های توضیح‌پذیری و سوگیری را به عنوان بخشی از فرآیند انتشار یک مدل برای اطمینان از انطباق با استانداردهای هوش مصنوعی اخلاقی تنظیم کنند. در نهایت، اعتماد مستلزم دیده شدن برای زنجیره تامین داده است و شرکت‌ها باید اطمینان حاصل کنند که می‌توانند اصالت مدل را به داده‌های آموزشی مورد استفاده در آزمایش ردیابی کنند.

ریسک

شرکت‌ها ریسک‌های هوش مصنوعی را با اعمال حاکمیت دقیق بر مدل‌ها در طول چرخه حیات ML، از توسعه و مرحله‌بندی تا تولید و بایگانی، مدیریت می‌کنند. تیم‌های مدیریت و ریسک باید بتوانند مدل ورودی/خروجی و عملکرد را نظارت کنند و قوانینی را اجرا کنند که از پیشگیری از نتایج بد اطمینان حاصل کنند.

یک پلتفرم هوش مصنوعی عملیاتی باید اعتبار مدل را فعال کند تا اطمینان حاصل شود که مدل‌های سازمان مطابق طراحی عمل می‌کنند، موارد لبه‌ای را که نیاز به پردازش دستی یا بازبینی بیشتر دارند، شناسایی کند و سلامت کلی مدل‌ها را از طریق معیارهایی مانند زمان پاسخ، تاخیر، نرخ خطا و توان کنترل کند.

شرکت‌ها همچنین باید انتظار داشته باشند که سیستم مدیریت مدل آنها به طور خودکار کیفیت داده‌ها و جابجایی داده‌ها و همچنین معیارهای عملکرد مدل مانند دقت، صحت، یادآوری و امتیاز F1[1] را پایش کند. قابلیت‌های هشدار، در جایی که هشدارها در صورت کاهش عملکرد یا جابجایی فعال می‌شوند، اطمینان حاصل می‌کنند که می‌توان اقدامات اصلاحی را قبل از وقوع نتایج بد انجام داد.

مدیریت امنیت

حفاظت از داده‌ها و امنیت فناوری اطلاعات، در فرآیند یادگیری برای پشتیبانی از TRiSM هوش مصنوعی ضروری است. امنیت پیرامون داده‌ها با فعال کردن کنترل‌های دسترسی دانه‌ای در کل چرخه حیات ML آغاز می‌شود و دسترسی مناسب به اطلاعات مناسب را برای کاربران فراهم می‌کند و در عین حال از رخنه‌های غیرعمدی یا عمدی جلوگیری می‌کند. در حالت ایده‌آل، پلتفرم هوش مصنوعی عملیاتی شما باید به راحتی با خط مشی‌های امنیتی موجود و سیستم مدیریت هویت ادغام شود و در مقابل سیستم دیگری برای مدیریت فناوری اطلاعات ایجاد گردد.

یک پلتفرم هوش مصنوعی عملیاتی مؤثر باید به شرکت‌ها اجازه دهد تا فضاهای کاری جداگانه‌ای ایجاد کنند که بین محیط‌ها، چه بین تیم‌ها و چه بین مدل‌های توسعه و تولید، ایزوله‌سازی نماید. باید امکان ایجاد شیوه‌های انتشار ایمن استانداردشده با چک‌لیست‌های انتشار و اتوماسیون‌های CI/CD را فراهم کند و بتواند مدل‌ها را برای آسیب‌پذیری‌ها به عنوان بخشی از استقرار اسکن کند و گزارش‌های حسابرسی را برای انطباق حفظ کند.

همین الان باید شروع کرد

به گفته گارتنر، خبر خوب این است که شرکت‌هایی که به مسائل مربوط به اعتماد، ریسک و امنیت هوش مصنوعی می‌پردازند، می‌توانند انتظار نتایج تجاری بسیار بهتری از پروژه‌های هوش مصنوعی خود داشته باشند. از سوی دیگر، تحقیقات بیان می‌کند که سازمان‌هایی که گام‌هایی برای مدیریت این ریسک‌ها بر نمی‌دارند، به احتمال زیاد شاهد مدل‌هایی که طبق انتظار عمل نمی‌کنند، شکست‌های امنیتی، زیان‌های مالی و آسیب به شهرت خواهند بود.

از آنجایی که صنعت اینشورتک به گسترش و نوآوری برنامه‌های هوش مصنوعی برای ارائه خدمات بهتر به پایگاه مشتریان در حال گسترش ادامه می‌دهد، زمان استقرار قابلیت‌ها برای پشتیبانی از TRiSM هوش مصنوعی در عملیات یادگیری ماشین فرا رسیده است، قبل از اینکه نتایج بدی رخ دهد که بر اعتماد مصرف‌کننده تاثیر بگذارد یا بازرسی‌های نظارتی را تحت تاثیر قرار دهد.

 

[1] برای ارزیابی عملکرد سیستم‌ها کاربرد دارد که یک نوع میانگین بین پارامتر p (دقت) و پارامتر r (یادآوری) است p همان دقت سیستم در میان داده‌های پیش‌بینی شده‌است و r  هم نسبت تعداد داده‌های پیش‌بینی شده، به تعداد کل داده‌های مورد انتظار برای پیش‌بینی است.

ارسال نظر
پاسخ به :
= 5-4