4 قانون طلایی جهت استفاده ایمن از هوش مصنوعی گروه هوش مصنوعی: در صورتیکه ابزارهای هوش مصنوعی به سرعت به بخشی جدایی ناپذیر از زندگی روزمره، از برنامه نویسی تا یادداشت برداری، تبدیل گشته اند، حفظ حریم خصوصی کاربران به یک نگرانی جدی تبدیل گشته است. یکی از مهندسان امنیت گوگل، با اشاره به خطراتی چون نشت داده ها و دسترسی مجرمان سایبری، چهار عادت ضروری را برای صیانت از داده ها هنگام استفاده از ابزارهای هوش مصنوعی سفارش می کند. تینا مزدکی_هرش وارشنی، مهندس شاغل در قسمت امنیت هوش مصنوعی کروم در گوگل، تأکید می کند که ابزارهای هوش مصنوعی به سرعت به یک شریک خاموش در زندگی روزمره ما تبدیل گشته اند و برای کارهایی چون مطالعه عمیق، کدنویسی و کاوشهای آنلاین خیلی مفید هستند. اما به سبب ماهیت شغلی اش در تیم امنیت، او نسبت به نگرانی های حریم خصوصی مرتبط با بهره گیری از هوش مصنوعی بطورکامل آگاه است. او که قبل از این در تیم حفظ حریم خصوصی گوگل کار می کرده، هشدار می دهد که مدلهای هوش مصنوعی برای تولید پاسخ های مفید از داده ها استفاده می نمایند و کاربران باید از اطلاعات خصوصی خود محافظت کنند تا نهادهای مخرب مانند مجرمان سایبری و کارگزاران داده نتوانند به آنها دسترسی پیدا کنند. در این راستا، این متخصص امنیت چهار عادت را معرفی می کند که برای حفاظت از داده ها در حین استفاده از هوش مصنوعی ضروری هستند: ۱. با هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنید گاهی اوقات، یک حس ناصحیح از صمیمیت با هوش مصنوعی موجب می شود افراد اطلاعاتی را به شکل آنلاین به اشتراک گذارند که هیچ گاه در حالت عادی این کار را نمی کردند. بااینکه شرکت های هوش مصنوعی دارای کارمندانی هستند که برای بهبود جنبه های حریم خصوصی مدل هایشان تلاش می کنند، اما بهیچ وجه سفارش نمی شود جزئیاتی مانند اطلاعات کارت اعتباری، شماره های شناسایی، آدرس منزل، سوابق پزشکی شخصی یا سایر اطلاعات هویتی (Personally Identifiable Information - PII) را با چت بات های عمومی به اشتراک بگذارید. بسته به نسخه ای که استفاده می شود، اطلاعاتی که با چت بات های عمومی به اشتراک گذاشته می شود، می تواند برای آموزش مدلهای آینده و تولید پاسخ های مرتبط تر مورد استفاده قرار گیرد. این مورد می تواند منجر به "نشت آموزشی" (Training Leakage) شود، جایی که مدل، اطلاعات شخصی یک کاربر را حفظ می نماید و بعداً آنرا در جواب کاربر دیگری بازگو می کند. علاوه بر این، خطر نقض داده ها وجود دارد که می تواند اطلاعات به اشتراک گذاشته شده با چت بات را فاش کند. به قول وارشنی، کاربران باید با چت بات های هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنند. اگر فردی حاضر نیست اطلاعاتی را روی یک کارت پستال بنویسد که امکان دارد توسط هر کسی دیده شود، نباید آنرا با یک ابزار عمومی هوش مصنوعی به اشتراک بگذارد. ۲. بدانید کجا هستید تشخیص این که از یک ابزار هوش مصنوعی عمومی استفاده می کنید یا یک ابزار در سطح سازمانی (Enterprise-grade)، خیلی مهم است. در صورتیکه معلوم نیست مکالمات چه طور برای آموزش مدلهای عمومی استفاده می شوند، شرکت ها می توانند برای مدلهای «سازمانی» هزینه پرداخت کنند. در این مدلها، معمولا مکالمات کاربران برای آموزش استفاده نمی شود و بدین سبب برای کارمندان امن تر است که در مورد کارهای خود و پروژه های شرکت صحبت کنند. میتوان این وضعیت را به داشتن مکالمه ای در یک کافی شاپ شلوغ که امکان دارد شنیده شود، در مقابل یک جلسه محرمانه در دفتر کار که در همان اتاق باقی می ماند، تشبیه کرد. گزارش هایی وجود داشته بر مبنای این که کارمندان به صورت تصادفی داده های شرکت را در اختیار چت جی پی تی قرار داده اند. اگر روی پروژه های منتشر نشده شرکت کار می کنید، نباید برنامه های خودرا با یک چت بات عمومی به سبب خطر نشت اطلاعات به اشتراک بگذارید. وارشنی تأکید می کند که پروژه های داخلی گوگل را با چت بات های عمومی به اشتراک نمی گذارد و به جای آن از مدلهای سازمانی استفاده می نماید، حتی برای کارهای کوچکی مانند ویرایش یک ایمیل کاری.۳. تاریخچه مکالمات خودرا به صورت منظم حذف کنید چت بات های هوش مصنوعی معمولا تاریخچه مکالمات شما را نگه می دارند، اما سفارش می شود برای حفظ حریم خصوصی در درازمدت، این تاریخچه را به صورت منظم در هر دو مدل سازمانی و عمومی حذف کنید. به سبب خطر به خطر افتادن حساب کاربری، این یک عادت احتیاطی خوب است. وارشنی تجربه خودرا بیان می کند که یک دفعه تعجب کرده بود که چت بات سازمانی جیمینای توانست آدرس دقیق او را بگوید، در صورتیکه به یاد نداشت آنرا به اشتراک گذاشته باشد. مشخص شد که او قبلاً از آن خواسته بود تا در اصلاح یک ایمیل که شامل آدرسش بود، کمک نماید. از آنجا که این ابزار دارای خاصیت های حافظه بلند مدت است، توانسته بود آدرس او را شناسایی و حفظ کند. او سفارش می کند که برای جستجوی مواردی که نمی خواهید چت بات به خاطر بسپارد، از یک حالت ویژه، شبیه به حالت ناشناس (Incognito Mode)، استفاده کنید که در آن روبات ها تاریخچه را ذخیره نمی کنند یا از اطلاعات برای آموزش مدلها استفاده نمی کنند. چت جی پی تی و جیمینای این توانایی را "چت موقت" (Temporary Chat) می نامند. ۴. از ابزارهای هوش مصنوعی معتبر استفاده کنید بهتر است از ابزارهای هوش مصنوعی شناخته شده استفاده گردد که احتمال بیشتری وجود دارد که دارای چارچوب های حریم خصوصی واضح و سایر تدابیر امنیتی باشند. علاوه بر محصولات گوگل، وارشنی استفاده از ChatGPT از OpenAI و Claude از Anthropic را سفارش می کند. همین طور بررسی سیاستهای حفظ حریم خصوصی هر ابزاری که استفاده می شود، مفید می باشد. در قسمت تنظیمات حریم خصوصی، کاربران می توانند بدنبال گزینه ای برای بهبود مدل برای همه باشند. با اطمینان از خاموش بودن این تنظیم، از استفاده مکالمات برای آموزش مدل جلوگیری می شود. تکنولوژی هوش مصنوعی فوق العاده قدرتمند است، اما باید احتیاط کرد تا اطمینان حاصل شود که داده ها و هویت ما هنگام استفاده از آن ایمن باقی می مانند. منبع: businessinsider منبع: iagrp.ir 1404/09/25 08:48:31 5.0 / 5 10 تگها: آموزش , تكنولوژی , تولید , حافظه مطلب را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط یک ایرانی هدایت بزرگ ترین پروژه هوش مصنوعی گوگل را بر عهده گرفت هوش مصنوعی پاشنه آشیل آبله میمونی را پیدا کرد حمایت عادلانه از آموزش هوش مصنوعی به خردسالان کلید انقلاب اقتصادی آینده است تولد ریاض ایر نظرات بینندگان در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۸ بعلاوه ۱ نظر دادن