آنتروپیک با مکالمات کاربران هوش مصنوعی خویش را آموزش می دهد!

آنتروپیک با مکالمات کاربران هوش مصنوعی خویش را آموزش می دهد!

به گزارش گروه هوش مصنوعی، آنتروپیک اعلام نمود از مکالمات کاربران برای آموزش مدلهای آینده خود استفاده خواهد کرد، مگر این که کاربران به صراحت مخالفت خویش را اعلام کنند.


به گزارش گروه هوش مصنوعی به نقل از خبر آنلاین و برپایه گزارش دیجیاتو، آنتروپیک، سازنده مدل هوش مصنوعی محبوب کلود، در یک تغییر سیاست بزرگ اعلام نمود که از این بعد از مکالمات و کدهای کاربران برای آموزش و بهبود مدلهای آینده خود استفاده خواهد کرد، مگر این که کاربران به صراحت مخالفت خویش را اعلام کنند.
آنتروپیک اخیرا سیاستهای خویش را به روز کرد تا از مکالمات کاربران برای آموزش مدلهای خود استفاده نماید. همینطور مدت زمان نگهداری داده های کاربرانی که با این مساله موافقت کنند، به پنج سال افزایش خواهد یافت. این سیاست جدید نگرانی های جدی درمورد حریم خصوصی و نحوه رضایت گرفتن از کاربران بوجود آورده است.
حالا کاربران وقتی وارد این چت بات می شوند، با یک پنجره پاپ آپ با عنوان «به روزرسانی شرایط و سیاستهای مصرف کننده» مواجه می شوند که باید تا تاریخ ۲۸ سپتامبر ۲۰۲۵ (۶ مهر ۱۴۰۴) تصمیم خویش را غائی کنند. بااین حال، طراحی این پنجره انتقاداتی را برانگیخته است.
آموزش مدلهای هوش مصنوعی آنتروپیک با مکالمات کاربران یک دکمه بزرگ و برجسته «پذیرش» (Accept) در پایین صفحه پاپ آپ جدید قرار دارد، درحالی که گزینه اصلی مربوط به اجازه استفاده از داده ها برای آموزش، با فونت کوچک تر و به شکل یک دکمه روشن/خاموش در زیر آن قرار گرفته است. این دکمه به صورت پیش فرض روی حالت «روشن» تنظیم شده است. این طراحی سبب می شود خیلی از کاربران بدون خواندن جزئیات، تنها با کلیک روی دکمه بزرگ «پذیرش» نادانسته با اشتراک گذاری داده های خود موافقت کنند.

اگر نمی خواهید مکالمات شما برای آموزش هوش مصنوعی استفاده شود، باید تیک را خاموش کنید و سپس دکمه اکسپت را بزنید.
اگر به اشتباه موافقت نموده اید، می توانید با رفتن به تنظیمات (Settings)، سپس بخش حریم خصوصی (Privacy) و در نهایت قسمت «Help improve Claude» این گزینه را غیرفعال کنید. البته باید توجه داشت که این تغییر فقط بر روی داده های آینده اثرگذار است و داده هایی که قبلاً برای آموزش استفاده شده اند، قابل بازپس گیری نیستند.
این بروزرسانی شامل تمام کاربران اشتراک های مصرف کننده کلود، همچون پلن های رایگان، پرو و مکس می شود. بااین حال آنتروپیک تاکید کرده است که این تغییرات شامل کاربران تجاری و سازمانی (مانند Claude for Work و Education) و همینطور کاربرانی که بوسیله API شرکت های دیگر مانند Amazon Bedrock و Google Cloud به کلود دسترسی دارند، نمی شود.
مهم ترین نکته این است که این سیاست فقط بر روی مکالمات جدید یا مکالمات قدیمی که از سر گرفته می شوند، اعمال خواهد شد. مکالمات قبلی شما تا وقتی که آنها را ادامه ندهید، برای آموزش استفاده نخواهند شد.
آنتروپیک اعلام نموده است که هدف از این کار ساخت مدلهای هوش مصنوعی تواناتر و مفیدتر است. به قول این شرکت داده های کاربران به بهبود ایمنی مدلها، تشخیص دقیق تر محتوای مضر و تقویت مهارت هایی مانند کدنویسی و تحلیل کمک خواهدنمود.
این شرکت تضمین داده است که از تلفیقی از ابزارها و فرایندهای خودکار برای فیلترکردن یا پنهان کردن داده های حساس استفاده می نماید و داده های کاربران را به هیچ شخص ثالثی نمی فروشد. کاربرانی که با اشتراک گذاری داده های خود موافقت نکنند، همچنان تحت سیاست قبلی باقی می مانند و داده هایشان بعد از ۳۰ روز حذف خواهد شد.


منبع:

1404/06/09
09:36:52
5.0 / 5
10
مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۴
لینک دوستان گروه هوش مصنوعی
گروه هوش مصنوعی
iagrp.ir - مالکیت معنوی سایت گروه هوش مصنوعی متعلق به مالکین آن می باشد