مشاوره با این روان شناس مصنوعی خطرناکست حاضر همیشه غایب!

مشاوره با این روان شناس مصنوعی خطرناکست حاضر همیشه غایب!

به گزارش تجهیزات جانبی، در دهه ای که هوش مصنوعی به یکی از زیرساخت های بنیادین زندگی دیجیتال تبدیل گشته، ورود چت بات ها و اپلیکیشن های سلامت روان به عرصه مشاوره روانی، پدیده ای گریزناپذیر اما پرمناقشه است.


به گزارش تجهیزات جانبی به نقل از مهر؛ این تحول فقط یک تغییر تکنولوژیک ساده نیست، بلکه نشانه دگرگونی عمیق در الگوهای ارتباطی، شیوه جست وجوی کمک، اعتماد به منابع دانشی و حتی درک ما از مفهوم «رابطه درمانی» شمرده می شود. میلیونها نفر در سراسر دنیا، بخصوص در جوامعی که با کمبود متخصصان سلامت روان، هزینه های سرسام آور خدمات درمانی، تبعیض جغرافیایی و فشارهای اجتماعی در رفتن به روانشناس رو به رو هستند، این ابزارها را بعنوان مسیر جایگزین برگزیده اند؛ ابزاری که همیشه در دسترس می باشد، هزینه ای ندارد و بیمار را قضاوت نمی نماید. از طرفی، کارشناسان تأکید می کنند که جذابیت هوش مصنوعی در این عرصه با واقعیت علمی آن فاصله دارد. گزارش تازه انجمن روان شناسی آمریکا (APA) نشان میدهد که اغلب چت بات ها و اپلیکیشن های فعلی نه فقط جهت ارایه خدمات روان درمانی طراحی نشده اند، بلکه در بسیاری موارد فاقد شواهد علمی معتبر، نظارت تخصصی، پروتکلهای ایمنی و حتی در موقعیت های حساس، خطرناک هستند. این شکاف میان برداشت عمومی از توانایی هوش مصنوعی و واقعیت تجربی و علمی امروز به یکی از اصلی ترین دغدغه های متخصصان و سیاست گذاران تبدیل گشته است. این نوشتار کوتاه با تأکید بر داده ها و استدلال های ارایه شده در گزارش انجمن روان شناسی آمریکا، تلاش می کند تصویری جامع، دقیق و مبتنی بر شواهد از فرصت ها، محدودیت ها، تهدیدها و الزامات حکمرانی در استفاده از چت بات ها و ابزارهای هوش مصنوعی برای مشاوره روانی ترسیم کند؛ تصویری که نشان میدهد چرا این فناوری، در کنار تمام ظرفیت هایش، نیازمند چارچوب های اخلاقی، نظارتی و آموزشی دقیق است تا جایگزین رابطه درمانی انسانی نشده و از مسیر حمایتی خود نیز خارج نگردد.

جذابیت هوش مصنوعی برای کاربران؛ چاره یا سراب؟

گسترش استفاده از چت بات ها برای روان درمانی در شرایطی اتفاق می افتد که نظام سلامت روان در سطح جهانی با عدم تعادل ساختاری رو به رو است. کمبود متخصصان در مناطق کم برخوردار، افزایش انزوای اجتماعی، رشد افسردگی و اضطراب و ناتوانی نظام سلامت بسیاری کشورها در تامین هزینه درمان، سبب شده میلیونها کاربر به چت بات هایی مانند چت جی پی تی، «Character.AI» و ده ها اپلیکیشن دیگر روی بیاورند. در حالی که این ابزارها برای اهداف غیر درمانی طراحی شده اند، در عمل نقش همراه، مشاور یا حتی درمانگر را برای کاربران ایفا می کنند و مشکل از همین جا شروع می شود. هیچ یک از این تکنولوژی ها برای ارایه درمان بالینی ساخته نشده اند و در چهارچوب معیارهای پزشکی نیز مورد ارزیابی قرار نگرفته اند. انجمن روان شناسی آمریکا توضیح می دهد که جذابیت این ابزارها در چند عامل شامل حذف فشار اجتماعی، سهولت دسترسی، ناشناس بودن، ارزان بودن و امکان صحبت کردن بدون ترس از قضاوت ریشه دارد. این خاصیت ها بخصوص برای نوجوانان، زنان، ساکنان مناطق روستایی و افراد بدون دسترسی به درمان تخصصی جذاب است. اما مسئله اساسی اینجاست که هیچیک از چت بات های عمومی، حتی پیشرفته ترین آنها، توانایی های ضروری یک متخصص سلامت روان را ندارند. بعبارت دیگر، ابزار مذکور فاقد شناخت محدودیت علمی، توجه به سابقه بالینی فرد، تفسیر نشانه های غیرکلامی، ارزیابی خطر، شناخت بافت فرهنگی و درک پیچیدگی های روانی هستند. بنابراین، هرچند این ابزارها می توانند احساس همراهی ایجاد کنند، اما نمی توانند جایگزین ارزیابی و درمان متخصص شوند.

خطرات پنهان در پس تجربه کاربری شیرین

یکی از یافته های کلیدی انجمن روان شناسی آمریکا اینست که خیلی از چت بات ها گرفتار نوعی «تملق الگوریتمی» یا «sycophancy» هستند؛ یعنی برای کسب رضایت کاربر، احساسات یا باورهای او را تأیید می کنند. این رفتار، هرچند از منظر تجربه کاربری دلنشین است، اما از نظر روان شناختی می تواند بشدت لطمه زا باشد. تأیید خطاهای شناختی فرد، تشویق ناخواسته رفتارهای ناصحیح یا تقویت تفکر وسواسی، از نتایج این الگوی تعاملی به حساب می آید. در بعضی موارد مستند، چت بات ها به کاربران دارای سابقه خودآزاری پیشنهادهای خطرناک داده یا ایده های روان پریشانه را در افراد تقویت کرده اند. گزارش انجمن روان شناسی آمریکا همین طور تاکید می کند که در مورد خردسالان و نوجوانان، این خطر چند برابر است. از طرفی و بر خلاف تصور کاربران، گفت و گو با چت بات ها بهیچ وجه خصوصی نیست. این ابزارها در بسیاری موارد داده های حساسی مانند افکار، نگرانی ها، تمایلات شخصی، سوابق لطمه و احساسات را جمع آوری کرده و در مدلهای خود به کار می گیرند. انجمن روان شناسی آمریکا هشدار می دهد که داده های مربوط به سلامت روان می تواند به آسانی تبدیل به پروفایل تجاری شود یا حتی مورد سوءاستفاده قرار گیرد. جدیدترین بررسی ها نشان میدهد بیشتر کاربران از نحوه ذخیره سازی، تحلیل و فروش داده های خود از جانب شرکتهای هوش مصنوعی اطلاعی ندارند. این امر بخصوص در رابطه با نوجوانان که به صورت طبیعی احساس امنیت کاذب بیشتری در تعامل با فناوری دارند، خطرناک می باشد. علاوه بر این، مدلهای زبانی عمدتا بر داده های غربی، انگلیسی زبان و اینترنتی آموزش دیده اند. این یعنی درک آنها از فرهنگ، روابط، هنجارها و سبک زندگی جهانی، بشدت محدود و سوگیرانه است. بنابراین، احتمال ارایه سفارش های ناصحیح یا لطمه زا برای گروههای قومی، زبانی یا فرهنگی خیلی زیاد است. از همین روی، انجمن روان شناسی آمریکا تاکید می کند که بدون شفافیت در رابطه با داده های آموزشی، ارزیابی علمی این مدلها امکان ندارد.

توهم درمان: وقتی هوش مصنوعی ادعای درمانگری می کند

انجمن روان شناسی آمریکا در گزارش خود بارها تاکید می کند که بعضی از این ابزارها خویش را «درمانگر»، «مشاور» یا «متخصص سلامت روان» معرفی می کنند؛ بدون این که هیچ نوع اعتبار، مجوز یا پشتوانه علمی داشته باشند. این گمراه سازی می تواند موجب شود کاربران به سفارش های خطرناک اعتماد کرده و از رفتن به متخصص واقعی خودداری نمایند. در صورتیکه یک درمانگر واقعی مکلف به رعایت اخلاق، محرمانگی، گزارش خطر و معیارهای حرفه ای است، چت بات ها هیچ کدام از این تعهدات را ندارند. همین طور بر مبنای یافته های ارایه شده، چت بات ها می توانند در کاربران رابطه ای شبه عاطفی ایجاد کنند. بااینکه این رابطه یک طرفه است، اما کاربر ممکنست آنرا واقعی تصور کند. در چنین شرایطی، نوجوانان به طور دقیقتر در معرض وابستگی عاطفی به چت بات ها قرار دارند. این مساله خطر جایگزینی روابط انسانی با «دوستی هوش مصنوعی» را بیشتر می کند. انجمن روان شناسی آمریکا هشدار می دهد که طراحی آواتارهای انسانی، لحن احساسی، تماسهای گرم و پاسخ های شخصی سازی شده، این خطر را تشدید می کند. در نهایت و در بحران های روانی مانند افکار خودکشی، حملات پانیک یا رفتارهای پرخطر، چت بات ها عملکردی غیرقابل پیشبینی دارند. این ابزارهای فناورانه نه می توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می توانند مداخله فوری عرضه کنند. از همین روی، انجمن روان شناسی آمریکا صریحاً اعلام می کند که اتکا به این ابزارها در بحران، می تواند تهدیدکننده جان فرد باشد.

گروه های در معرض خطر: چه کسانی بیشتر لطمه می بینند؟

گزارش انجمن روان شناسی آمریکا توضیح می دهد که برخی گروه ها بیشتر از دیگران در معرض لطمه قرار می گیرند و این لطمه پذیری به دلیلهای روان شناختی، اجتماعی و محیطی قابل توضیح است. خردسالان و نوجوانان، به علت رشد نیافتگی مهارت های تنظیم هیجان و ناتوانی در تشخیص مرز میان ارتباط انسانی و ماشینی، بیشتر تحت تأثیر فضای عاطفی مصنوعی چت بات ها قرار می گیرند. افراد دچار اضطراب یا وسواس نیز ممکنست به چرخه های تکراری پرسش و پاسخ با چت بات ها پناه ببرند؛ چرخه هایی که نه فقط مسئله اصلی را حل نمی کند، بلکه به تشدید نگرانی ها و وابستگی فکری منجر می شود. گروه دیگری از این افراد، کسانی هستند که با افکار یا باورهای هذیانی زندگی می کنند؛ این افراد ممکنست جملات مبهم یا تأییدگر چت بات ها را بعنوان نشانه ای واقعی تعبیر کنند و وضعیت روانی شان وخیم تر شود. افزون بر این، افراد منزوی یا کم برخوردار که در نبود حمایت اجتماعی ناچار به تکیه بر این ابزارها هستند، در معرض تشکیل روابط عاطفی مصنوعی قرار می گیرند؛ روابطی که از بیرون بی خطر به نظر می رسند، اما در عمل می توانند فاصله فرد را از روابط انسانی واقعی بیشتر کنند. بالاخره، آنهایی که اساساً دسترسی به درمان تخصصی ندارند و تنها راه پیش روی آنها تعامل با چت بات هاست، بیشتر از سایرین در خطر گرفتار شدن در چرخه ای از وابستگی، تشدید نشانه ها و تأخیر در دریافت کمک واقعی قرار دارند و نتایج این چرخه ممکنست ماه ها یا حتی سال ها ادامه پیدا کند. انجمن روان شناسی آمریکا در گزارش خود بر این نکته تاکید دارد که اولین خط دفاع در مقابل لطمه های احتمالی، آموزش والدین، معلمان، کاربران و حتی درمانگران در رابطه با نحوه کارکرد مدلهای زبانی، محدودیت های آنها، نحوه جمع آوری داده ها، خطرات وابستگی و راهکارهای استفاده ایمن است. بدون آموزش، فناوری به جای تسهیل درمان، می تواند مسیری به سمت اطلاعات غلط، وابستگی و لطمه باشد.

خلأهای حکمرانی و مسئولیت سیاست گذاران

در شرایط وجود چنین تهدید بزرگی، مقررات فعلی در بسیاری کشورها برای کنترل ابزارهای هوش مصنوعی کافی نیستند و شکاف بزرگی میان سرعت توسعه فناوری و ظرفیت نظارتی دولت ها شکل گرفته است. گزارش انجمن روان شناسی آمریکا تاکید می کند که قدم نخست، ممانعت از ارایه خدمات به شکل فریب کارانه است؛ یعنی جایی که چت بات ها خویش را «درمانگر» یا «متخصص» معرفی می کنند و با بهره گیری از واژگان حرفه ای، کاربر را به اشتباه می اندازند. ممنوعیت قانونی این نوع معرفی، اقدامی ضروری برای ممانعت از سوءبرداشت عمومی و صیانت از کاربران لطمه پذیر است. از طرفی، نبود شفافیت در رابطه با داده های آموزشی، یکی از بنیادی ترین ضعف های این فناوری ها شمرده می شود. بی گمان بدون دانستن این که مدلهای زبانی بر چه نوع داده هایی آموزش دیده اند، نمی توان سوگیری ها، محدودیت ها یا احتمال تولید اطلاعات غلط را ارزیابی کرد. به همین دلیل، انجمن روان شناسی آمریکا خواهان الزام پلت فرم ها به افشای سازوکارهای داده ای و فراهم سازی امکان ارزیابی مستقل است. تدوین معیارهای علمی نیز بخش مهم دیگری از این الزامات به حساب می آید. همانطور که هیچ دارویی بدون آزمایش های کلینیکی وارد بازار نمی گردد، ابزارهای دیجیتالی که وارد قلمرو سلامت روان می شوند نیز باید تحت ارزیابی های تخصصی، آزمون های ایمنی و مطالعات اثربخشی قرار گیرند. این ارزیابی ها باید قبل از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد. از طرفی، باتوجه به حساسیت داده های روانی، حفاظت سختگیرانه از این اطلاعات باید تبدیل به یک قاعده الزامی شود. این داده ها همچون خصوصی ترین و حساس ترین انواع داده های فردی هستند و کوچک ترین سوءاستفاده یا نشت آنها می تواند نتایج جدی اجتماعی، شغلی و حتی امنیتی داشته باشد. بالاخره، پیام محوری انجمن روان شناسی آمریکا اینست که هیچ میزان پیشرفت فناوری نباید جامعه را از اصلاح چارچوب های ناکارآمد نظام سلامت روان غافل کند. چت بات ها هیچ گاه جایگزین نیروی انسانی یا زیرساخت درمانی نمی شوند و اتکای بیش از اندازه به آنها به جای توسعه ظرفیت واقعی نظام سلامت، نه فقط کمکی به جامعه نمی کند بلکه می تواند وضعیت را وخیم تر سازد.

جمع بندی

با توسعه روز افزون هوش مصنوعی، چت بات های مبتنی بر این فناوری به بخشی جدایی ناپذیر از زیست جهان دیجیتال تبدیل گشته اند؛ زیست جهانی که هر روز مرز میان ارتباط انسانی و تعامل ماشینی را کمرنگ تر می کند. اما درست در همین نقطه است که خطر اصلی پدیدار می شود. استفاده از این ابزارها در حوزه سلامت روان، زمانیکه فاقد چارچوب بالینی، نظارت تخصصی و معیارهای ایمنی هستند، می تواند نه فقط ناکارآمد، بلکه در نقاطی حتی لطمه زا باشد. این فناوری ها می توانند گفتگویی روان، لحظه ای و پر از همدلی مصنوعی یا حس کوتاه مدت همراهی فراهم نمایند، اما قادر به درک سوابق بالینی، ارزیابی نشانه های پیچیده روان شناختی، تشخیص ریسک، یا تشکیل پیوند درمانی اصیل نیستند. توانایی ایجاد مکالمه، معادل توانایی درمان نیست؛ همان گونه که شباهت زبانی، معادل درک عمیق انسانی محسوب نمی گردد. آن چه گزارش انجمن روان شناسی آمریکا با تأکید روشن بیان می کند اینست که هوش مصنوعی فقط می تواند در نقش «یار کمکی» و بعنوان ابزاری برای تسهیل فرایندها در کنار درمانگر انسانی قرار گیرد. این ابزارها می توانند در بعضی شرایط محدود، مانند کاهش اضطراب لحظه ای، آموزش مهارت های ساده تنظیم هیجان یا ارایه تمرین های رفتاری، کمک کننده باشند، اما ستون های اصلی پروسه درمان یعنی ارزیابی بالینی، تصمیم گیری اخلاقی، مداخله مسئولانه و ایجاد رابطه درمانی مؤثر، همگی مستلزم قضاوت انسانی، تجربه حرفه ای و توانایی دریافت نشانه های غیرکلامی هستند؛ توانایی هایی که هیچ مدل زبانی قادر به بازتولید آن نیست. به همین دلیل، اصلاح نظام سلامت روان، افزایش دسترسی به متخصصان، توسعه زیرساخت های درمانی و توانمندسازی منابع انسانی در این عرصه، خیلی مهم تر از هر ابزار هوشمند است. در نهایت می توان نتیجه گرفت که آینده درمان روان شناختی بدون شک از فناوری بهره خواهد گرفت؛ اما این آینده تنها زمانی سالم و ایمن خواهد بود که فناوری در خدمت درمانگر باشد و جایگزین او نشود. به اجمال، گسترش استفاده از چت بات ها برای روان درمانی در شرایطی اتفاق می افتد که نظام سلامت روان در سطح جهانی با عدم تعادل ساختاری مواجه است. این ابزارهای فناورانه نه می توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می توانند مداخله فوری عرضه کنند. این ارزیابی ها باید پیش از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد.

منبع:

1404/08/29
12:44:29
5.0 / 5
12
تگهای خبر: آموزش , ابزار , اینترنت , تجربه
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۶ بعلاوه ۴
تجهیزات جانبی
93z.ir - مالکیت معنوی سایت تجهیزات جانبی متعلق به مالکین آن می باشد - 1397 تا 1404