آغاز تحقیق جهانی یکساله درباره تأثیر هوش مصنوعی بر سلامت روان
سازمان خیریه Mind که یکی از بزرگترین نهادهای فعال در حوزه سلامت روان در انگلستان و ولز به شمار میرود، از آغاز یک تحقیق جامع و یکساله درباره تأثیر هوش مصنوعی بر سلامت روان خبر داده است. این پژوهش با هدف بررسی دقیق فرصتها، تهدیدها و چارچوبهای ایمنی لازم برای استفاده از سیستمهای هوش مصنوعی در حوزه سلامت روان طراحی شده و قرار است ابعاد فنی، پزشکی، اخلاقی و اجتماعی این موضوع را بهطور همزمان ارزیابی کند.
شروع این پروژه در پی گزارش افشاگرانه روزنامه The Guardian صورت گرفت؛ گزارشی که نسبت به انتشار اطلاعات نادرست پزشکی توسط برخی ابزارهای مبتنی بر هوش مصنوعی هشدار داده بود. این افشاگری بهویژه بر عملکرد قابلیت «AI Overviews» در جستجوی گوگل تمرکز داشت؛ قابلیتی که پاسخهای خلاصهشده مبتنی بر هوش مصنوعی را در بالای نتایج جستجو نمایش میدهد و ماهانه در معرض دید میلیاردها کاربر قرار میگیرد.
چرا نگرانیها جدی شد؟
بررسیهای اولیه کارشناسان Mind نشان داد که در برخی موارد، پاسخهای ارائهشده توسط ابزارهای هوش مصنوعی درباره موضوعات مرتبط با سلامت روان، نهتنها ناقص بوده بلکه میتواند گمراهکننده یا حتی خطرناک باشد.
برای مثال، در آزمایشهای انجامشده، پاسخهایی مشاهده شد که رژیمهای غذایی سخت و محدودکننده را بدون اشاره به خطرات احتمالی آنها «سالم» توصیف میکردند. در نمونههای دیگر، برخی اختلالات روانی بهصورت سادهسازیشده و با ارجاع صرف به «عدم تعادل شیمیایی» توضیح داده شده بودند؛ دیدگاهی که سالهاست از سوی بسیاری از متخصصان مورد نقد قرار گرفته و بهعنوان توضیحی ناکافی شناخته میشود.
یکی از اعضای تیم تحقیق Mind در اینباره گفته است:
«ما با پاسخهایی مواجه شدیم که ظاهری قاطع و مطمئن داشتند، اما وقتی دقیقتر بررسی میکردیم، میدیدیم یا از نظر علمی ناقصاند یا میتوانند برداشت اشتباه ایجاد کنند.»
نگرانی اصلی این است که کاربران در شرایط بحرانی برای مثال افرادی که با اضطراب شدید، افسردگی یا افکار خودآسیبزننده مواجه هستند، ممکن است به این پاسخها بهعنوان منبع معتبر تکیه کنند و بهجای مراجعه به متخصص، تصمیمهای نادرست بگیرند.
اهداف تحقیق یکساله Mind
پروژه جدید Mind قرار است در سطحی گسترده و بینالمللی اجرا شود و چند هدف کلیدی را دنبال میکند:
شناسایی دقیق ریسکهای استفاده از هوش مصنوعی در زمینه سلامت روان
بررسی مزایا و فرصتهای بالقوه این فناوری
ارائه چارچوبهای ایمنی و استانداردهای پیشنهادی برای شرکتهای فناوری
شنیدن صدای افرادی که تجربه مستقیم مشکلات سلامت روان دارند
برخلاف بسیاری از مطالعات فنی که صرفاً بر عملکرد الگوریتمها تمرکز دارند، این تحقیق تلاش میکند تجربه زیسته کاربران را نیز در مرکز توجه قرار دهد. به گفته مسئولان Mind، تصمیمگیری درباره فناوریهایی که مستقیماً بر سلامت روان افراد اثر میگذارند، نباید فقط در اتاقهای هیئتمدیره شرکتهای فناوری یا نهادهای سیاستگذاری انجام شود.
مدیران این سازمان تأکید کردهاند که مشارکت روانشناسان، پزشکان، پژوهشگران علوم داده، قانونگذاران و همچنین افرادی که با چالشهای روانی زندگی میکنند، بخش جداییناپذیر این پروژه خواهد بود.
دیدگاه مدیرعامل Mind
دکتر Sarah Hughes، مدیرعامل Mind، در توضیح ضرورت این تحقیق گفته است:
«هوش مصنوعی میتواند به شکل چشمگیری دسترسی به اطلاعات و خدمات سلامت روان را افزایش دهد. اما اگر این فناوری بدون نظارت و استانداردهای روشن توسعه یابد، ممکن است بهجای کمک، آسیب وارد کند.»
او همچنین اضافه کرده است:
«ما مخالف نوآوری نیستیم. مسئله این است که نوآوری باید مسئولانه باشد. وقتی پای سلامت روان در میان است، اشتباهات میتوانند پیامدهای جدی داشته باشند.»
به گفته او، هدف اصلی این تحقیق ایجاد تعادل میان بهرهگیری از ظرفیتهای تحولآفرین هوش مصنوعی و تضمین ایمنی کاربران است.
انتقاد از سادهسازی موضوعات پیچیده
یکی از محورهای انتقادی که در گزارشها مطرح شده، نحوه سادهسازی بیش از حد مسائل پیچیده سلامت روان توسط مدلهای زبانی است. اختلالات روانی معمولاً چندبعدی هستند و به ترکیبی از عوامل زیستی، روانشناختی و اجتماعی وابستهاند. ارائه پاسخهای کوتاه و قطعی بدون اشاره به این پیچیدگیها میتواند تصویر نادرستی ایجاد کند.
Rosie Weatherley، مدیر بخش محتوای اطلاعات در Mind، در اظهارنظری تند گفته است:
«آنچه این ابزارها ارائه میدهند، اغلب شبیه اطلاعات معتبر به نظر میرسد؛ اما وقتی دقیق بررسی میکنید، میبینید که زمینه، محدودیتها و ظرافتهای علمی حذف شدهاند. این میتواند برای فردی که در وضعیت بحرانی قرار دارد بسیار خطرناک باشد.»
او توضیح داده که پاسخهای کوتاه و ظاهراً قطعی ممکن است باعث شوند افراد تصور کنند یک راهحل ساده و فوری برای مشکلات پیچیده وجود دارد، در حالی که درمان و مدیریت سلامت روان معمولاً نیازمند ارزیابی تخصصی و حمایت مستمر است.
واکنش گوگل به انتقادها
در پی انتشار این نگرانیها، شرکت Google اعلام کرد که برای بهبود کیفیت پاسخهای مرتبط با سلامت، سرمایهگذاری قابلتوجهی انجام داده است. به گفته نمایندگان این شرکت، سیستمهای آنها بهطور مداوم بهروزرسانی میشوند و در مواردی که کاربر در وضعیت اضطراری به نظر برسد، اطلاعات تماس خدمات اورژانسی محلی نمایش داده میشود.
با این حال، منتقدان معتقدند این اقدامات کافی نیست. به باور آنها، حتی اگر درصد کوچکی از پاسخها نادرست یا گمراهکننده باشند، با توجه به مقیاس میلیاردی کاربران، تعداد افرادی که ممکن است تحت تأثیر اطلاعات اشتباه قرار گیرند قابلتوجه خواهد بود.
یکی از پژوهشگران مستقل حوزه اخلاق فناوری در لندن در اینباره گفته است:
«وقتی یک سیستم در چنین مقیاسی فعالیت میکند، حتی نرخ خطای پایین هم میتواند به معنای تأثیر بر میلیونها نفر باشد.»
چرا این تحقیق اهمیت جهانی دارد؟
گرچه این پروژه از سوی یک سازمان بریتانیایی آغاز شده، اما موضوع آن ماهیتی جهانی دارد. هوش مصنوعی مرز نمیشناسد و ابزارهای مبتنی بر آن در سراسر جهان مورد استفاده قرار میگیرند. به همین دلیل، نتایج این تحقیق میتواند بر سیاستگذاریهای بینالمللی و استانداردهای آینده در حوزه سلامت دیجیتال اثر بگذارد.
افزون بر این، بسیاری از کشورها در حال ادغام ابزارهای هوش مصنوعی در خدمات درمانی، مشاوره آنلاین و پلتفرمهای پشتیبانی روانی هستند. اگر چارچوبهای نظارتی مشخصی وجود نداشته باشد، خطر بروز آسیب افزایش مییابد.
فرصتها در کنار تهدیدها
با وجود انتقادها، کارشناسان تأکید میکنند که هوش مصنوعی میتواند نقش مثبتی در سلامت روان ایفا کند. برای نمونه:
ارائه اطلاعات اولیه و راهنمایی سریع
کاهش انگ اجتماعی از طریق گفتوگوهای ناشناس
کمک به غربالگری اولیه علائم
پشتیبانی از متخصصان در تحلیل دادهها
اما شرط بهرهمندی از این مزایا، شفافیت، دقت علمی و نظارت انسانی است.
دکتر هیوز در این زمینه گفته است:
«هوش مصنوعی میتواند پلی باشد میان افراد و خدمات درمانی؛ اما این پل باید محکم و ایمن ساخته شود.»
آغاز تحقیق یکساله توسط Mind را میتوان نقطه عطفی در گفتوگوی جهانی درباره نقش هوش مصنوعی در سلامت روان دانست. این پروژه تلاش میکند تصویری واقعبینانه از مزایا و خطرات ارائه دهد و راهکارهایی برای استفاده مسئولانه از فناوری پیشنهاد کند.
در دنیایی که ابزارهای هوش مصنوعی روزبهروز در دسترستر میشوند، پرسش اصلی دیگر این نیست که «آیا باید از این فناوری استفاده کنیم یا نه»، بلکه این است که «چگونه میتوانیم آن را بهگونهای توسعه دهیم که سلامت و کرامت انسانها در اولویت قرار گیرد».
نتایج این تحقیق میتواند مسیر آینده سیاستگذاری، طراحی محصول و استانداردهای اخلاقی در حوزه سلامت دیجیتال را شکل دهد — مسیری که اگر درست هدایت شود، هوش مصنوعی را از یک خطر بالقوه به ابزاری ارزشمند برای حمایت از سلامت روان تبدیل خواهد کرد.
0 آرا: 0 موافق, 0 مخالف (0 امتیاز)
با آخرین و مهمترین اخبار بهروز بمانید
You need to configure your Mailchimp API key for this form to work properly.