چتباتهای مبتنی بر هوش مصنوعی، همچون «چتجیپیتی»، «گروک» و «جمینای»، بهطور گسترده در دسترس عموم قرار گرفتهاند و کاربران آنها را در حوزههای متنوعی به کار میگیرند، از نگارش ایمیل و برنامهریزی سفر گرفته تا سایر فعالیتهای روزمره. با این حال، برخی از افراد، بهویژه کسانی که امکان دسترسی به خدمات روانشناختی تخصصی را ندارند، در جستوجوی کارکردی شخصیتر از این ابزارها هستند، یعنی بهرهگیری از آنها بهعنوان منبعی بالقوه برای دریافت حمایت روانی.
روزنامه واشنگتنپست گزارش کرده است که بر اساس نظرسنجیای که در سال ۲۰۲۳ توسط انجمن روانشناسی آمریکا انجام شد، از هر پنج شهروند آمریکایی یک نفر حداقل یکبار برای مسائل مرتبط با سلامت روان از ابزارهای هوش مصنوعی استفاده کرده است. موسسه آمریکایی فعال در زمینه هوش مصنوعی، اوپنایآی (به انگلیسی: OpenAI) نیز میگوید ChatGPT به تنهایی اکنون نزدیک به ۷۰۰ میلیون کاربر هفتگی دارد که بیش از ۱۰ میلیون نفر از آنها ماهانه ۲۰ دلار حق اشتراک پرداخت میکنند. این فناوریها در طیفی گسترده از کارکردها به کار میروند؛ از حمایتهای ساده در زمینهی مراقبت از خود تا کمک به تحلیل تروما.
جذابیت استفاده از این چتباتها در عوامل متعددی نهفته است: دسترسپذیری رایگان یا کمهزینه، امکان استفادهی بیوقفه در تمام ساعات شبانهروز، و سهولت کاربری حتی از طریق تلفن همراه. افزون بر این، چتباتها میتوانند فضایی غیرقضاوتگرانه برای ابراز هیجانات و کشف راهبردهای مقابله فراهم آورند.
با اینهمه کارشناسان همواره هشدار دادهاند که هوش مصنوعی جایگزین درمان حرفهای نیست. «چتباتها ابزار هستند، نه درمانگر»، به گفته آنها چتباتها «میتوانند مکمل مفیدی باشند، اما برای نیازهای پیچیدهی عاطفی یا بحرانها طراحی نشدهاند.»
با اینهمه اگر در شرایطی قرار دارید که به فکر استفاده از هوش مصنوعی برای دریافت حمایت عاطفی هستید، این پنج توصیهی کارشناسان برای استفادهی ایمن و مؤثر را در نظر داشته باشید:
۱. چتباتها را مانند یک دفترچهی یادداشت ببینید، نه یک محرم راز
سامانههای هوش مصنوعی میتوانند در فرایندهایی چون ساماندهی افکار یا کاوش و بازشناسی هیجانات نقش حمایتی ایفا کنند. با این حال، بهاشتراکگذاری دادههای شخصی حساس با این ابزارها توصیه نمیشود. مکالمات معمولاً در سرورها ذخیره میشوند و حتی در صورت تعهد به حفظ محرمانگی، همواره احتمال نقض حریم خصوصی یا رخنهی اطلاعاتی وجود دارد.
کاربران میتوانند از چتباتها برای بازنگری در الگوهای فکری منفی یا اجرای تمرینهای ذهنآگاهی بهره ببرند، اما ضروری است از افشای جزئیات هویتی، مکانی یا روابط فردی پرهیز کنند. برای نمونه، به جای طرح مسئله بهصورت «در زندگیام با سارا در شهر فرانکفورت مشکل دارم»، میتوان پرسشی کلیتر مطرح کرد: «چگونه میتوان با تعارض در یک رابطهی نزدیک مواجه شد؟» این نوع بازنمایی، در عین پرهیز از بیان اطلاعات شخصی، همچنان امکان دریافت راهنمایی سودمند را فراهم میسازد.
۲. مرزها و اهداف روشن تعیین کنید
پیش از آغاز تعامل با یک چتبات هوش مصنوعی، ضروری است که کاربر هدف خود را بهروشنی تعریف کند. برای نمونه، آیا تمرکز بر یافتن تکنیکهای مدیریت استرس است یا بر جستوجوی راهکارهایی جهت تقویت عزتنفس؟ این شفافسازی اولیه مانع از شکلگیری گفتوگوهای پراکنده و بیجهت میشود که میتوانند احساس سردرگمی را تشدید کنند.
برای آغاز مکالمه، میتوان از قالبهای راهنماییکننده بهره گرفت؛ بهعنوان مثال: «بهعنوان یک مربی حمایتی عمل کن و مرا در دستیابی به [یک هدف مشخص] یاری کن. پاسخها مختصر و مبتنی بر شواهد باشند.» افزون بر این، ضروری است که کاربر زمان و حدود گفتوگو را خود مشخص کند، زیرا سامانههای هوش مصنوعی توانایی ذاتی برای تشخیص نقطهی پایان تعامل ندارند. در این راستا، میتوان بازهای محدود مثلاً ۱۵ تا ۲۰ دقیقه در نظر گرفت که معمولاً برای یک گفتوگوی هدفمند و سودمند کفایت میکند.
۳. توصیهها را با منابع معتبر تطبیق دهید
اگرچه سامانههای هوش مصنوعی قادرند بهسرعت پیشنهادهایی ارائه دهند، اما دقت و بهروزبودن این توصیهها تضمینشده نیست. گاه ممکن است این ابزارها به شیوههای منسوخ یا حتی نامناسب ارجاع دهند. ازاینرو، ضروری است کاربران همواره صحت و اعتبار توصیهها را با منابع علمی و معتبر تطبیق دهند.
در مواردی که به مسائل جدیتری مانند افسردگی یا اضطراب مربوط میشود، نقش هوش مصنوعی باید صرفاً بهعنوان نقطهی آغاز یا «پل» برای دستیابی به حمایت حرفهای تلقی شود. برای نمونه، کاربر میتواند پرسشی از این دست مطرح کند: «نشانههای نیاز به مراجعه به درمانگر چیست؟» و سپس بر اساس اطلاعات بهدستآمده، اقدام عملی برای جستوجوی کمک تخصصی انجام دهد.
۴. از آنها برای تمرین مهارتهای واقعی استفاده کنید
یکی از قابلیتهای مهم چتباتهای هوش مصنوعی، امکان تمرین و شبیهسازی موقعیتهای تعاملی دشوار است. برای مثال، کاربران میتوانند با آنها گفتوگوهایی مانند درخواست افزایش حقوق یا تعیین مرز با یک دوست را شبیهسازی کنند. ایفای نقش در این موقعیتها با هوش مصنوعی به ایجاد اعتمادبهنفس کمک میکند، بدون اینکه پیامدهای واقعی و پرریسکی داشته باشد. نمونهای از این کاربرد عبارت است از: «فرض کن رئیس من هستی و کمکم کن تا برای مذاکره دربارهی برنامهی کاری انعطافپذیر تمرین کنم.»
این روش بهویژه برای افرادی با تنوع عصبی یا کسانی که اضطراب اجتماعی دارند، کاربردی و مفید است. پس از انجام تمرین، توصیه میشود که کاربر بازخورد دریافت کند؛ بهعنوان مثال، بپرسد: «چه جنبههایی را خوب انجام دادم و در کجا میتوانم عملکردم را بهبود دهم؟» فرآیند بازخورد، امکان تأمل و بهبود مهارتهای بینفردی و حرفهای را فراهم میآورد.
۵. بدانید چه زمانی باید کمک انسانی بگیرید و چگونه هوش مصنوعی میتواند کمک کند
در صورتی که تعامل با سامانههای هوش مصنوعی موجب تشدید ناراحتی روانی، احساس سردرگمی یا حتی گرایش به آسیب به خود شود، لازم است استفاده از این ابزارها فوراً متوقف گردد و فرد بلافاصله با یک متخصص سلامت روان یا شمارههای اورژانس اجتماعی تماس بگیرد. هرچند هوش مصنوعی میتواند در تسهیل دسترسی به اطلاعات مربوط به مراقبت تخصصی مفید واقع شود، برای مثال از طریق طرح پرسشهایی مانند «مراحل یافتن یک درمانگر مناسب با نیازهای مشخص ۱، ۲ و ۳ چیست؟» اما نباید بهعنوان جایگزین حمایت حرفهای تلقی شود.
هوش مصنوعی با دموکراتیکتر کردن دسترسی به اطلاعات، فرصتی ارزشمند برای آغاز فرایندهای خودیاری و هدایت به سوی منابع تخصصی فراهم میآورد. با این حال، درمان مؤثر و پایدار به ارتباط انسانی، همدلی و مهارتهای حرفهای نیازمند است؛ ویژگیهایی که صرفاً از سوی متخصصان آموزشدیده قابل ارائهاند. از این رو، فناوری باید بهعنوان نقطهی آغاز بهرهگیری شود، نه جایگزین تعامل انسانی.