مدل جدید DeepSeek به گزارش گروه هوش مصنوعی، معماری جدید دیپ سیک «توجه پراکنده» نام دارد و البته برخی کارشناسان می گویند نمی توان به آن اعتماد کرد. به گزارش گروه هوش مصنوعی به نقل از خبر آنلاین و برپایه گزارش دیجیاتو، استارتاپ چینی دیپ سیک از یک مدل هوش مصنوعی آزمایشی جدید به نام DeepSeek-V3.2-Exp رونمایی کرده است که با یک معماری جدید به نام «توجه پراکنده» وعده می دهد هزینه استفاده از هوش مصنوعی برای تحلیل متون طولانی را تا نصف کم کند. این پیشرفت می تواند دسترسی به مدلهای هوش مصنوعی قدرتمند را برای شرکت های کوچک تر ممکن کند. مدلهای هوش مصنوعی امروزی برای درک یک متن، باید به تمام کلمات و جملات آن «توجه» کنند. این فرآیند، بخصوص در متون بسیار طولانی، به قدرت محاسباتی و هزینه سرور بسیار زیادی نیاز دارد. اما رویکرد جدید DeepSeek که «توجه پراکنده» (DSA) نام دارد، این معادله را تغییر می دهد. این سیستم به جای پردازش تمام اطلاعات، به شکل هوشمند و گزیده عمل می کند. تصور کنید یک شرکت هواپیمایی می خواهد بهترین مسیر را پیدا کند؛ پس به جای بررسی تمام مسیرهای ممکن در جهان، فقط گزینه های منطقی را فیلتر می کند. «توجه پراکنده» هم دقیقا همین کار را با داده ها انجام می دهد. این سیستم ابتدا با یک ماژول هوشمند، مهم ترین بخش های متن را شناسایی و سپس فقط کلمات (یا توکن های) مهم را برای تحلیل نهائی انتخاب می کند. این فرآیند بار محاسباتی را بشدت می کاهد و به قول دیپ سیک، می تواند هزینه استفاده از API را در سناریوهای دارای متن طولانی تا ۵۰ درصد کم کند. معماری جدید دیپ سیک برای کاهش هزینه ها به گزارش CNBC، این پیشرفت یک خبر عالی برای کل اکوسیستم فناوری است. کاهش چشم گیر هزینه ها به این معناست که توسعه دهندگان، محققان و شرکت های کوچک تر که توانایی پرداخت هزینه های زیاد سرور را ندارند، حالا می توانند از مدلهای قدرتمند هوش مصنوعی برای ساخت اپلیکیشن های خود بهره گیرند. این اتفاق می تواند به موج جدیدی از خلاقیت و رقابت در بازار منجر شود. با وجود تمام مزایا، این رویکرد یک نگرانی اساسی هم دارد: اطمینان پذیری. سؤال اصلی این است که هوش مصنوعی چطور تصمیم می گیرد که کدام داده ها مهم و کدام غیرمهم هستند؟ «اکاترینا آلماسک» (Ekaterina Almasque)، یکی از سرمایه گذاران برجسته در عرصه هوش مصنوعی، می گوید: «واقعیت این است که این مدلها خیلی از ظرافت ها را از دست می دهند. سؤال واقعی این است که آیا آنها مکانیسم درستی برای حذف داده های غیرمهم دارند؟» این مساله بخصوص از نظر ایمنی و فراگیری هوش مصنوعی می تواند مشکل ساز باشد. اگر یک مدل به صورت سیستماتیک داده های مربوط به یک گروه خاص یا یک دیدگاه خاص را «غیرمهم» تشخیص دهد، خروجی آن می تواند بشدت مغرضانه، غیرقابل اعتماد و حتی خطرناک باشد. منبع: iagrp.ir 1404/07/09 10:17:56 5.0 / 5 16 تگها: آزمایش , اپل , اپلیكیشن , استارتاپ مطلب را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط ChatGPT یک مسئله ریاضی ۲۰۰۰ ساله را حل کرد پنج جایگزین قدرتمند ChatGPT برای کارهای مختلف را بشناسید یک گام بزرگ به طرف هوش مصنوعی عمومی کدنویسی ناامن به سبک دیپ سیک نظرات بینندگان در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۸ بعلاوه ۳ نظر دادن