چرا استفاده از ChatGPT برای مشاوره عاطفی می تواند به رابطه تان صدمه بزند؟
به گزارش گروه هوش مصنوعی، در شرایطی که بحران دسترسی به خدمات سلامت روان در خیلی از کشورها تشدید شده، هوش مصنوعی مولد بعنوان جایگزینی سریع و 24 ساعته برای مشاوره انسانی مطرح گردیده است. با این وجود، کارشناسان می گویند استفاده مداوم از چت بات ها برای مشورت عاطفی و روانی می تواند نتایج نگران کننده ای داشته باشد.
به گزارش گروه هوش مصنوعی به نقل از خبر آنلاین و بر طبق گزارش هوشیو، یک روانشناس استرالیایی در گفت و گو با گاردین مثال «ترن» را مطرح می کند؛ مردی که برای حل مشکلات رابطه اش، قبل از صحبت با همسرش، متن پیام ها را از ChatGPT می گرفت. پاسخ ها منسجم و منطقی بودند، اما بگفته همسرش، دیگر «صدای واقعی» او را نداشتند. به مرور، وابستگی به این ابزار موجب شد ترن برای هر تصمیم اجتماعی یا احساسی ابتدا به هوش مصنوعی مراجعه کند و توانایی اعتماد به قضاوت خودرا از دست بدهد.
روان شناسان می گویند چت بات ها با لحن دوستانه و حضور دائمی شان می توانند رفتاری شبیه به «تأییدطلبی» یا «اجتناب از مواجهه با احساسات» را تقویت نمایند، خصوصاً در افرادی که اضطراب، وسواس فکری یا لطمه های روحی دارند. این وابستگی نه فقط مانع رشد مهارت های مقابله ای می شود، بلکه ممکنست موجب انتقال اطلاعات شخصی به شرکت هایی شود که تحت قوانین محرمانگی درمانی قرار ندارند.
علاوه بر این، مدلهای زبانی می توانند گاهی اطلاعات ناصحیح یا سوگیرانه عرضه کنند، چون پاسخ ها برمبنای پیشبینی کلمات بعدی ساخته می شوند، نه درک عمیق انسانی.
کارشناسان تاکید می کنند که هوش مصنوعی می تواند نقش مکمل در آموزش یا دسترسی سریع به اطلاعات روان شناسی داشته باشد، خصوصاً در مناطقی که درمانگر انسانی کمیاب است. اما جایگزین تعامل انسانی، همدلی و پرسشگری درمانگران واقعی نیست.
بگفته این روان شناس، «درمان خوب پر از ابهام و کشف تدریجی است، نه پاسخ های کامل و آماده.» ترن بعد از کار درمانی آموخت که گاهی پیام های ناقص و پر از تردید، از هر متن کاملِ هوش مصنوعی، انسانی تر و مؤثرترند.
مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب