تازه‌های هوش مصنوعی مولد در سال 2024 برای بیمه‌گران

05 شهریور 1403
شناسه : 878
منبع:

مدل‌های زبانی بزرگ مبتنی بر هوش مصنوعی (LLM)[1] می‌توانند صرفه‌جویی قابل‌توجهی در هزینه‌ها در سراسر بخش‌های بیمه ایجاد کنند، از جمله دستورالعمل‌های صدور بیمه‌نامه، رویه‌های رسیدگی به خسارات، و اسناد بیمه‌نامه و ارتباطات. مدل‌های زبانی بزرگ چه چیز جدیدی در سال 2024 برای ارائه دارند؟

 

در سال 2023 هوش مصنوعی مولد جهان را تحت تأثیر قرار داد و در سال 2024 نیز هیچ نشانه‌ای از کاهش سرعت آن وجود ندارد. از آن‌جایی که مدل‌های زبانی بزرگ همچنان به اثبات مهارت خود در ایجاد و استفاده از داده‌های سازمان‌نیافته ادامه می‌دهند، بسیار مهم است که صنعت بیمه به بررسی و تعامل با این قابلیت‌های در حال تکامل هوش مصنوعی بپردازد.

 

مدل‌های زبانی بزرگ می‌توانند با به‌کارگیری تکنیک‌های جدید، مانند تولید تقویت‌شده با بازیابی (RAG)[2] و مهندسی پرامپت، صرفه‌جویی قابل‌توجهی در هزینه‌های مربوط به راهنمای بیمه‌گری، رویه‌های رسیدگی به خسارات و اسناد بیمه‌نامه‌ها و ارتباطات ایجاد کنند. در این‌جا، ما چندین پیشرفت کلیدی در مدل‌های زبانی بزرگ را بررسی می‌کنیم و به‌تفصیل توضیح خواهیم داد که چگونه کاربران می‌توانند این فناوری‌های جدید را به‌طور مؤثر در صنعت بیمه به کار ببرند.

 

چه چیزی در مدل‌های زبانی بزرگ جدید است؟

یکی از ویژگی‌های نوظهور مدل‌های زبانی بزرگ توانایی آن‌ها در مدیریت انواع مختلف روش‌های ورودی است. برقراری ارتباط با نسخه‌های قبلی ChatGPT به تعاملات متنی محدود می‌شد، ولی GPT-4 به کاربران امکان می‌دهد اسناد را با پرامپت‌های خود بارگذاری کنند، در نتیجه به مدل اجازه می‌دهد به وظایف مبتنی بر تصویر کمک کند یا به سؤالات مربوط به فایل‌های خاص با قالب CSV پاسخ دهد. تجهیز مدل‌های زبانی بزرگ به انواع مختلف اطلاعات آن‌ها را قادر می‌سازد تا پاسخ‌های ظریف‌تری را متناسب با نیازهای خاص کاربر ارائه دهند.

 

این سطح از سفارشی‌سازی پیشرفته در ورودی‌های مدل با پیشرفت‌هایی تکمیل می‌شود که به کاربران کنترل بیشتری بر پاسخ‌های تولیدشده توسط مدل‌های زبانی بزرگ می‌دهد. به‌عنوان مثال، GPT-4 می‌تواند تعیین کند که آیا پاسخ‌هایش باید در قالب JSON[3] یا نوع دیگری از فایل‌های ساختارمند باشد، و این امر پایایی و یکدستی را تا حد زیادی بهبود می‌بخشد. این قابلیت به‌ویژه برای توسعه‌ی وب، تجزیه‌وتحلیل داده‌ها و یادگیری ماشین مفید است، کارکردهایی که در حال حاضر توسط مدل‌های زبانی بزرگ تسهیل شده است و احتمالاً با تغییر این مدل‌ها به پلتفرم‌های هوش مصنوعی مولد مستقل، اتوماسیون بیشتری نیز رخ خواهد داد. ChatGPT در خط مقدم این تحول قرار دارد، با توجه به این‌که GPT-4 می‌تواند کد را اجرا کند و جستجوهای وب را بلادرنگ انجام دهد. با پیشرفت مدل‌های زبانی بزرگ در سال 2024، پتانسیل آن‌ها برای رسیدگی به انواع وظایف مرتبط با بیمه نیز افزایش می‌یابد.

 

موارد استفاده در بیمه

مدل‌های زبانی بزرگ می‌توانند ابزاری کلیدی برای بسیاری از جنبه‌های صنعت بیمه، از جمله ارزیابی‌های آماری، مستندسازی بیمه‌نامه‌ها و بیمه‌گری باشند. کارشناسان بیمه می‌توانند از مدل‌های زبانی بزرگ برای تولید کدی استفاده کنند که مدل‌سازی پیش‌بینانه را تقویت می‌کند. علاوه بر این، توانایی بارگذاری داده‌های کاربر می‌تواند برای بررسی روابط بین متغیرها و استخراج اطلاعات کلیدی مفید باشد، و این امر در نهایت می‌تواند به مدل‌های ریسک بهتری منجر شود.

 

قابلیت‌های پردازش زبان طبیعی مدل‌های زبانی بزرگ می‌توانند وظایف مختلفی را تسهیل کند:

متخصصان بیمه می‌توانند از مدل‌هایی برای اطمینان از یکدستی بیمه‌نامه‌ها، بهبود خوانایی و ترجمه‌های چندزبانه استفاده کنند. در حال حاضر مدل Claude 2 از شرکت Anthropic یک مدل‌ زبانی بزرگ است که می‌تواند بیشترین مقدار متن را با یک پرامپت پردازش کند.

مدل‌های زبانی بزرگ با استفاده از تکنیک‌های پیشرفته‌تر می‌توانند اطمینان دهند که اسناد بیمه‌نامه از معیارهای نظارتی یا الزامات قانونی پیروی می‌کنند یا خیر.

بیمه‌گران می‌توانند از مدل‌های زبانی بزرگ برای خلاصه کردن بسیاری از لایه‌های متن و مشخص کردن اطلاعات مرتبط در پایگاه داده‌های بزرگ متشکل از بیمه‌نامه‌ها استفاده کنند.

این‌ها فقط تعدادی از کاربردهای روزافزون مدل‌های زبانی بزرگ هستند که درمجموع کارایی عملیاتی را تا حد زیادی بهبود می‌بخشد. مدل‌های زبانی بزرگ، به‌شرط کاربرد درست، می‌توانند ابزاری ضروری برای تقریباً تمام جنبه‌های صنعت بیمه باشند.

 

مؤثرترین رویکردهای مدل‌های زبانی بزرگ

کاربران چهار گزینه برای گنجاندن داده‌های خود در مدل‌های زبانی بزرگ پیش روی خود دارند و هر کدام از این گزینه‌ها به درجات مختلفی از پیچیدگی و منابع محاسباتی نیاز دارد.

 

آموزش: چالش‌برانگیزترین و گران‌ترین این گزینه‌ها آموزش مدل‌های زبانی بزرگ از پایه است که به حجم عظیمی از داده‌های آموزشی و قدرت محاسباتی به‌منظور یافتن بهینه‌ترین پیکربندی برای شبکه‌ی عصبی جدید نیاز دارد.

تنظیم دقیق: با توجه به این هزینه‌های هنگفت، رویکرد رایج‌تر این است که مدلی را انتخاب کنیم که برای پردازش زبان طبیعی از قبل آموزش داده شده باشد و قابلیت‌های آن را با استفاده از داده‌های اختصاصی و دانش شرکت تنظیم کند. این رویکرد منجر به تولید یک مدل سفارشی متناسب با نیازهای توسعه‌دهنده‌اش می‌شود، اما منابع محاسباتی موردنیاز برای بازآموزی مدل همچنان ممکن است برای اکثر شرکت‌های بزرگ هزینه‌ای گزاف باشد.

 

تولید تقویت‌شده با بازیابی (RAG): این یک تکنیک جدیدتر و مقرون‌به‌صرفه برای گنجاندن اطلاعات بیشتر در یک پرامپت واحد است. این تکنیک با رونویسی متن از یک سند به یک بازنمود عددی (از طریق جاسازی کلمات) و سپس جمع‌آوری تمام بردارهای حاصل در یک پایگاه داده کار می‌کند. این پایگاه داده برداری حاوی روابط معنایی تمام سند است. سپس کاربران می‌توانند پایگاه داده را برای یافتن اطلاعات مربوط به یک پرامپت مشخص جستجو کنند. با افزودن پرامپت‌ها با استفاده از RAG، کاربران بافت گسترده‌تری را برای مدل‌های زبانی بزرگ فراهم می‌کنند تا بتوانند پاسخ‌های سفارشی را بدون این‌که نیاز باشد کاربران مستقیماً قابلیت‌های مدل را تنظیم کنند، ارائه دهند.

 

مهندسی پرامپت: ساده‌ترین و ارزان‌ترین راه برای استفاده از مدل‌های زبانی بزرگ مهندسی پرامپت است، که در آن کاربران پرامپت‌هایی را که مفیدترین پاسخ‌ها را تولید می‌کنند، کاوش می‌کنند و با دقت می‌نویسند.

 

فرصت‌ها و محدودیت‌های هوش مصنوعی

مدل‌های زبانی بزرگ اخیراً توانایی تفسیر و تجزیه‌وتحلیل فایل‌های CSV را به دست آورده‌اند. این مدل‌ها با بررسی مجموعه داده‌های خاص می‌توانند اطلاعات سفارشی‌سازی شده را ارائه دهند و کدهای متناسبی را برای تجزیه‌وتحلیل داده‌ها یا تصویرسازی ایجاد کنند، که این امر رویکرد زمینه‌ای و داده‌محور را ممکن می‌سازد. به‌عنوان مثال، مدل‌ زبانی بزرگ می‌تواند بر اساس ساختار، نوع و الگوهای درون فایل CSV، تحلیل‌های آماری مربوطه را پیشنهاد کند، روش‌های مناسب پاک‌سازی داده‌ها را شناسایی کند یا حتی نتایج بالقوه را پیش‌بینی نماید. این سطح از سفارشی‌سازی برای تصمیم‌گیری‌های آگاهانه‌تر و ساده‌سازی مراحل اولیه‌ی کاوش داده‌ها بسیار مهم است.

 

با این حال، مهم است که این رویکرد مدل‌ زبانی بزرگ را از یادگیری ماشین خودکارتر (AutoML) متمایز کنیم. یادگیری ماشین خودکار بر خودکار کردن سراسر فرایند استفاده از یادگیری ماشین در مشکلات دنیای واقعی تمرکز دارد. سیستم‌های یادگیری ماشین خودکار می‌توانند بهترین مدل را انتخاب کنند، تنظیمات ابَرپارامتر را اعمال کنند و انتخاب ویژگی‌ها را تکمیل کنند، و تمام این کارها را با حداقل دخالت انسان انجام می‌دهند. در مقابل، کد تولیدشده توسط مدل‌های زبانی بزرگ برای تجزیه‌وتحلیل داده‌ها بیشتر برای هدایت و کمک به وظایف خاص است تا خودکار کردن کل فرایند. رویکردی که این دو مدل را ترکیب کند می‌تواند بسیار سودمند باشد: مدل‌های زبانی بزرگ می‌توانند به درک اولیه‌ی داده‌ها و پیش‌پردازش کمک کنند، در حالی که یادگیری ماشین خودکار می‌تواند انتخاب و بهینه‌سازی مدل را به عهده بگیرد. این هم‌افزایی می‌تواند به یادگیری ماشینی کارآمدتر، دقیق‌تر و قابل‌دسترس‌تر منجر شود و تجزیه‌وتحلیل داده‌های پیشرفته را برای افراد غیرمتخصص قابل‌دسترس‌تر و برای متخصصان باتجربه کارآمدتر کند.

 

فناوری‌های هوش مصنوعی مولد نیز احتمالاً دچار همگرایی شدیدی خواهند شد. در حال حاضر، شبکه‌های عصبی بسیار دست‌اولی برای تولید تصویر، تولید متن، تولید صدا و خودروهای خودران استفاده می‌شود. با حرکت به سمت قابلیت‌های عمومی هوش مصنوعی عمومی، فناوری آینده احتمالاً این برنامه‌ها را یکپارچه خواهد کرد. هوش مصنوعی عمومی مانند مغز ما عمل می‌کند، با یک فناوری که تقریباً همه‌ی وظایف را انجام می‌دهد. مدل‌های زبانی بزرگ، حداقل در حد انسان‌ها، نمی‌توانند استدلال کنند، ولی استدلال محاسباتی یکی دیگر از پیشرفت‌های کلیدی است که ممکن است در افقِ پیش رو باشد.

 

نتیجه‌گیری

همه‌ی نشانه‌ها حاکی از آن است که سال 2024 سال دیگری برای رشد سریع هوش مصنوعی مولد است. هوش مصنوعی مولد به‌اندازه‌ی انقلاب اینترنت تأثیرگذار خواهد بود و برای متخصصان بیمه مهم است که از این فناوری‌های نوظهور استقبال کنند.

 

[1] large language models

[2] Retrieval-augmented generation

[3] JSON (JavaScript Object Notation) رایج ترین فرمت امروزی برای تبادل داده در وب است.

ارسال نظر
پاسخ به :
= 5-4