معاون تکنولوژی ازکی تصریح کرد چت‌بات ازکی نرخ ارجاع به اپراتور را از ۳۵ به ۹ درصد کاهش داده است

تاریخ: 20 آذر 1404
شناسه: 1100

به گزارش اینشورتک به نقل از فرابیمه، معاون تکنولوژی ازکی اعلام کرد که نسل جدید چت‌بات این پلتفرم توانسته نرخ درخواست کاربران برای ارتباط با اپراتور انسانی را از حدود ۳۵ درصد به ۹ درصد کاهش دهد.

محمود کهنسال در سخنرانی خود در رویداد «هوش مصنوعی، بازاریابی و تبلیغات» با مرور کوتاهی بر تاریخچه هوش مصنوعی گفت موج کنونی هوش مصنوعی ادامه مسیری است که شش تا هفت دهه پیش آغاز شد. او یادآور شد ایده «ماشینی که فکر می‌کند» سال‌ها قبل مطرح شد و پس از آن یادگیری ماشین و دیپ ‌لرنینگ تکامل یافت.

کهنسال نقطه عطف این مسیر را سال ۲۰۱۷ و معرفی معماری ترنسفورمر دانست؛ معماری‌ای که راه مدل‌های زبانی بزرگ را باز کرد. او سرعت تحول این حوزه را بسیار بالا توصیف کرد و گفت: «در سال ۲۰۲۵ دیگر کسی حاضر نیست با GPT-3 کار کند. مدل‌ها با چنان سرعتی جلو می‌روند که محصول‌سازی باید همیشه با نسل جدید همراه شود».

او سپس اکوسیستم جهانی هوش مصنوعی را در چهار لایه معرفی کرد: لایه زیرساخت و سخت‌افزار، لایه مدل‌سازها و مدل‌های بنیادین، لایه محصولات و کاربردهای هوش مصنوعی و در نهایت لایه توانمندسازی افراد در نقش‌های فردی و سازمانی. به گفته او، شرکت‌های بزرگ دنیا بازیگران اصلی دو لایه اول هستند و کسب‌وکارهای ایرانی با توجه به محدودیت منابع منطقی‌تر است که تمرکزشان را روی لایه محصول و تجربه مشتری بگذارند. او تأکید کرد: «ساخت مدل‌های جدید از نظر فنی و اقتصادی به‌صرفه نیست؛ ارزش واقعی زمانی خلق می‌شود که هوش مصنوعی وارد فرایند تصمیم‌گیری و تجربه مشتری شود».

کهنسال با اشاره به داده‌های مک‌کنزی گفت ۸۸ درصد شرکت‌ها به‌نوعی از هوش مصنوعی استفاده می‌کنند، اما تنها ۴ درصد آن‌ها توانسته‌اند به ارزش‌آفرینی پایدار برسند؛ وضعیتی که او آن را «شکاف میان هیجان و ارزش واقعی» توصیف کرد و توضیح داد که بسیاری از سازمان‌ها در مرحله آزمایش متوقف می‌شوند.

تجربه ازکی در توسعه چت‌بات: یک شکست و یک بازگشت

به گفته کهنسال، نخستین تلاش ازکی برای ساخت چت‌بات در سال ۱۴۰۱ هم‌زمان با موج اولیه ChatGPT آغاز شد، اما در آن زمان مدل‌های زبانی به بلوغ کافی نرسیده بودند. او توضیح داد: «در آن موقع یک تیم روی این پروژه کار می‌کردند، اما مدل‌های زبانی آن زمان بالغ نشده بودند. بدون وجود مدل‌های زبانی، همه سطوح مختلف مساله، از تشخیص نیت (Intent Recognition)، یافتن پاسخ و تولید پاسخ انسانی باید در تیم انجام می‌شد که پروژه را بسیار پرهزینه‌تر در اجرا می‌کرد. پس از چند ماه پیش بردن پروژه و بررسی نسخه‌های اولیه از خروجی، تصمیم به توقف پروژه گرفتیم. اما در سال ۱۴۰۳ و با بلوغ مدل‌های زبانی، ازکی به‌جای ساخت مدل جدید، معماری تازه‌ای مبتنی بر LLM و RAG طراحی کرد. این معماری به ما این امکان  را می‌داد به داکیومنت‌ها و دانش بیمه‌ای دسترسی داشته باشیم و پاسخ‌ها را دقیق‌تر و کنترل‌پذیرتر تولید کنیم. در نتیجه این بازطراحی کاهش قابل‌توجه نرخ ارجاع به اپراتور را به همراه داشت».

به‌گفته‌ کهنسال، میزان درخواست برای اتصال به اپراتور از حدود ۳۵ درصد به ۹ درصد کاهش یافته است. او اظهار کرد: رسیدن به چنین عددی برای ما بسیار رضایت‌بخش است و نشان می‌دهد توانسته‌ایم تجربه بهتری برای مشتری فراهم کنیم. وی ادامه داد: در این‌جا هوش مصنوعی صرفاً یک ترند نبود؛ شاخص‌عملکرد مشخص داشت، هزینه‌ها را کاهش داد و رضایت مشتری را افزایش داد.

پروژه Benefix: شخصی‌سازی کارت‌های بیمه

طبق گفته محمود کهنسال، دومین تجربه ازکی در استفاده از هوش مصنوعی مربوط به پروژه شخصی‌سازی کارت‌های پیشنهاد بیمه در صفحه مقایسه ازکی است؛ پروژه‌ای که ازکی آن را با نام Benefix توسعه داد.

کهنسال گفت مسئله این بود که پس از استعلام قیمت، تصمیم‌گیری درباره اینکه کدام کارت بیمه‌ای نمایش داده شود و ترتیب نمایش چگونه باشد، تاثیر مستقیم بر نرخ خرید، سطح تخفیف مشتری و حاشیه سود پلتفرم دارد.

به گفته کهنسال، تیم فنی به همین دلیل در ابتدا شاخصی به نام «مزیت مقایسه‌ای» تعریف کرد؛ ترکیبی از میزان تخفیف و نرخ تبدیل. سپس داده‌های لازم تولید شد، مدل پیش‌بینی احتمال خرید برای هر کانفیگ ساخته شد و چندین مرحله A/B تست مورد اجرا قرار گرفت. نتیجه این فرایند، بهبود چندمرحله‌ای شاخص مزیت مقایسه‌ای و بهبودهایی تا حدود ۱۵ درصد نسبت به وضعیت اولیه بود.

او در پایان گفت: «هوش مصنوعی ابزار بازطراحی تجربه مشتری است. هر جا تصمیم‌گیری وجود دارد از پاسخ‌دهی تا قیمت‌گذاری،  هوش مصنوعی می‌تواند ارزش خلق کند، اگر درست و با نگاه ارزش افزوده از آن استفاده شود».