چرا هوش مصنوعی به کاربران ایرانی پاسخ های ضعیف تری می دهد؟

چرا هوش مصنوعی به کاربران ایرانی پاسخ های ضعیف تری می دهد؟

گروه هوش مصنوعی: تحقیقات مرکز ارتباطات سازنده موسسه فناوری ماساچوست نشان داده است که مدلهای پیشرفته هوش مصنوعی برای کاربرانی که مهارت کمتری در زبان انگلیسی دارند، یا اهل خارج از آمریکا هستند، عملکرد ضعیف تری دارند.


به گزارش گروه هوش مصنوعی به نقل از خبر آنلاین، به نقل از ایسنا، چت بات های هوش مصنوعی پیشرفته همچون جی پی تی-۴ از کلاود و Llama ۳، گاهی پاسخ های کمتر دقیق و کمتر صادقانه ای به کاربرانی ارایه می دهند که مهارت کمتری در زبان انگلیسی دارند، تحصیلات رسمی کمتری دارند یا اهل خارج از ایالات متحده هستند. همین طور این مدلها با نرخ بالاتری از پاسخ دادن به سوالات خودداری می کنند و در بعضی موارد با زبان تحقیرآمیز پاسخ می دهند.
نویسنده اصلی و دستیار فنی این مطالعه می گوید: ما با این انگیزه آغاز کردیم که مدلهای زبانی بزرگ می توانند به کاهش نابرابری در دسترسی به اطلاعات در سراسر دنیا کمک کنند. اما این دیدگاه نمی تواند محقق شود مگر این که سوگیری های مدل و تمایلات مضر به صورت ایمن برای همه کاربران، صرف نظر از زبان، ملیت یا دیگر خاصیت های جمعیتی، کم شود.
برای این پژوهش، گروه بررسی کرد که سه مدل زبانی بزرگ چه طور به سوالات دو مجموعه داده پاسخ می دهند که برای اندازه گیری صداقت مدل طراحی شده است در حالیکه یکی شامل سوالات علمی است که دقت واقعی را می سنجد. محققان پیش از هر سوال، بیوگرافی کوتاهی از کاربران را اضافه کردند و سه خاصیت را تغییر دادند: سطح تحصیلات، مهارت زبان انگلیسی و کشور مبدا.
در هر سه مدل و هر دو مجموعه داده، محققان زمانیکه سوالات از کاربرانی با تحصیلات کمتر یا زبان انگلیسی غیر بومی می آمد، کاهش قابل توجهی در دقت مشاهده نمودند. این اثرات برای کاربرانی که هر دو خاصیت را داشتند تحصیلات کمتر و زبان انگلیسی غیر بومی بیشترین شدت را داشت و کیفیت پاسخ ها بیشترین کاهش را نشان داد.
این مطالعه همین طور بررسی کرد که کشور مبدا چه طور بر عملکرد مدل تأثیر می گذارد. با آزمایش کاربران از ایالات متحده، ایران و چین با سطح تحصیلات مشابه، محققان دریافتند که هوش مصنوعی Claude ۳ Opus بخصوص برای کاربران اهل ایران عملکرد ضعیف تری در هر دو مجموعه داده داشت.
خودداری از پاسخ و زبان تحقیرآمیز شاید جالب ترین نکته تفاوت ها در میزان خودداری مدلها از پاسخ دهی به سوالات باشد. به عنوان مثال، Claude ۳ Opus تقریبا ۱۱ درصد از سوالات کاربران کمتر تحصیل کرده و غیر بومی انگلیسی را پاسخ نداد در حالیکه این رقم برای شرایط کنترل بدون بیوگرافی کاربر فقط ۳.۶ درصد بود.
وقتی محققان این خودداری ها را به شکل دستی بررسی کردند، دریافتند که کلاود در ۴۳.۷ درصد موارد برای کاربران کمتر تحصیل کرده با زبان تحقیرآمیز پاسخ می دهد، در حالیکه برای کاربران تحصیل کرده کمتر از یک درصد است. در بعضی موارد، مدل زبان انگلیسی شکسته را تقلید یا لهجه اغراق آمیز به کار می برد.
این مدل همین طور از ارایه اطلاعات در بعضی موضوعات بطور دقیق تر برای کاربران کمتر تحصیل کرده از ایران یا روسیه خودداری می کرد که شامل سئوالاتی درباره ی انرژی هسته ای، آناتومی و وقایع تاریخی بود در حالیکه همان سوالات را برای سایر کاربران درست پاسخ می داد.
این یافته ها الگوهای ثبت شده سوگیری اجتماعی-شناختی انسان را منعکس می کنند. تحقیقات علوم اجتماعی نشان داده است که گویشوران بومی انگلیسی اغلب گویشوران غیر بومی را کمتر تحصیل کرده، کم هوش تر و غیر شایسته می دانند، صرف نظر از تخصص واقعی آنها. سوگیری مشابهی میان معلمان در ارزیابی دانش آموزان غیر بومی انگلیسی نیز ثبت شده است.
این پیامدها بطور دقیق تر نگران کننده هستند با عنایت به این که خاصیت های شخصی سازی مانند حافظه در چت جی پی تی که اطلاعات کاربر را در طول گفتگوها دنبال می کند به صورت درحال افزایشی رایج می شوند. چنین خاصیت هایی خطر رفتار متفاوت با گروههای حاشیه ای شده را دارند.
1404/12/03
14:33:07
5.0 / 5
5
مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۲
لینک دوستان گروه هوش مصنوعی
گروه هوش مصنوعی
iagrp.ir - مالکیت معنوی سایت گروه هوش مصنوعی متعلق به مالکین آن می باشد