خطر بروز تبعیض در داده‌پردازی: درباره تصمیم‌های الگوریتمی و آنچه در عصر داده و هوش مصنوعی می‌گذرد

الگوریتم‌ها نه تنها حق بیمه و ارزیابی ریسک را تعیین می‌کنند، بلکه مرز میان کارایی و تبعیض را نیز رقم می‌زنند.
تاریخ: 02 آذر 1404
شناسه: 1083

مستندسازی کامل داده‌ها و الگوریتم‌ها 

ارزیابی اثر مدل هوش مصنوعی بر حقوق بنیادین پیش از به‌کارگیری آن 

تضمین نظارت انسانی در تمام مراحل طراحی، توسعه و اجرا

ثبت و گزارش‌دهی خطاها و انحرافات الگوریتمی

قابلیت توضیح و ممیزی مستقل

به بیان ساده‌تر: حتی اگر الگوریتم توسط شرکت دیگری طراحی شده باشد، در صورت استفاده بیمه‌گر از آن، مسئولیت نقض احتمالی حقوق داده با خود شرکت بیمه خواهد بود؛ یعنی مسئولیت «قانونی» از سازنده به کاربر نیز تسری می‌یابد.

 

رویکرد سهمرحلهای برای مقابله با تبعیض

برای مقابله با خطر تبعیض در بیمه‌هایی که از سیستم‌های هوشمند استفاده می‌کنند، رویه‌های اروپایی به‌تدریج به سمت رویکردی سه مرحله‌ای حرکت می‌کنند:

۱. مرحله پیشگیرانه: شرکت‌ها باید قبل از به‌کارگیری سیستم، اثرات احتمالی آن بر گروه‌های مختلف را بررسی کنند.

۲. مرحله هم‌زمان: خروجی الگوریتم‌ها باید به‌طور مداوم از نظر انحراف آماری و تبعیض بررسی شوند.

۳. مرحله پسینی: باید سازوکارهایی برای جبران خسارت و رسیدگی به شکایات بیمه‌گزاران وجود داشته باشد.

 

تقویت شفافیت و قابلیت ممیزی

چالش بزرگ دیگر، مسئله جعبه‌ سیاه (Black Box) در مدل‌های یادگیری ماشین است. در یادگیری ماشین، الگوریتم‌ها بر اساس داده‌ها و الگوهای پیچیده تصمیم می‌گیرند، به‌طوری که حتی توسعه‌دهندگان هم دقیقاً نمی‌دانند سیستم چگونه به نتیجه خاصی رسیده است.

در چنین مواردی، شفافیت به معنای آن است که بیمه‌گر باید بتواند در برابر نهاد ناظر توضیح دهد که چه داده‌هایی در تصمیم نقش داشته‌اند و چرا. به بیان دیگر، حتی اگر منطق فنی سیستم پیچیده باشد، بیمه‌گر باید بتواند آن را به زبانی قابل فهم برای شهروند و ناظر بازسازی کند.

 

در آخر اینکه...

در کشورهایی مانند ایران که هنوز فاقد قانون حمایت از داده‌های شخصی و مقررات خاص برای هوش مصنوعی هستند، این مباحث از اهمیت دوچندان برخوردارند، زیرا در عصر پرشتاب هوش مصنوعی، خلأ قانونی می‌تواند خیلی زودتر از همیشه به بی‌عدالتی منجر شود.

تحول دیجیتال در بیمه می‌تواند فرصت بزرگی برای دقت و کارایی در این صنعت باشد، اما تنها زمانی این اتفاق رخ می‌دهد که اصول شفافیت، پاسخ‌گویی و انصاف در آن نهادینه شود.

از منظر حقوق هوش مصنوعی، هر الگوریتم بیمه‌ای باید سه شرط را برآورده کند:

۱. شفافیت برای بیمه‌گزار

۲. پاسخ‌گویی در برابر نهاد ناظر

۳. انطباق با اصول برابری و تناسب در داده‌ها.

تا زمانی که افراد ندانند الگوریتم‌ها چگونه درباره آن‌ها تصمیم می‌گیرند، بیمه نمی‌تواند به‌طور کامل اعتمادآفرین باشد.