در حالی که تاکنون گزارشها و مستندات مختلفی از ضررها و سوءاستفادهها از هوش مصنوعی در زمینههای مختلف منتشر شده است، محققان میگویند نمونههایی از تاثیرهای مضر هوش مصنوعی در سراسر جهان در حال ظهور است.
در ماه اکتبر (مهر/ آبان) یک زن اهل ایالت فلوریدا آمریکا از برنامه چتبات (نرمافزار هوش مصنوعی) به نام Character.ai شکایت و ادعا کرد که برنامه آن مسئول مرگ پسر ۱۴ سالهاش بوده است؛ رسانههای استرالیایی نیز از خودکشی یک نوجوان پس از مشورت با هوش مصنوعی خبر داده و اعلام کردند.
موارد متعددی از آسیبهای روانی نوجوانان درپی استفاده از چتباتهای هوش مصنوعی در کشورهای مختلف جهان نیز گزارش شدهاند.
شرکت اوپن اِیآی OpenAI بهتازگی و درپی خودکشی یک نوجوان و تشدید نگرانیها در مورد تاثیر فزاینده چتباتها بر سلامت نوجوانان از قصد خود برای اعمال تغییرهای جدی خبر داد؛ یک زوج اهل ایالت کالیفرنیا آمریکا بهتازگی با ثبت شکایتی، شرکت اوپن اِیآی را مسئول خودکشی پسر ۱۶ ساله خود دانستند.
آنها در این شکایت آوردهاند که چت جیپیتی ChatGPT مضرترین و خودویرانگرترین افکار پسرشان را تایید کرده و مرگ او نتیجه قابل پیشبینی انتخابهای طراحی عمدی بوده است.
این شکایت جدیدترین نمونه از نحوه هشدار والدینی است که فرزندان خود را از دست دادهاند و به دیگران در مورد خطرهای چتباتها هشدار میدهند.
شرکتهای فناوری که برای تسلط بر رقابت هوش مصنوعی رقابت میکنند، نگرانیهای بیشتری از سوی والدین، قانونگذاران و گروههای مدافع کودکان که نگران فقدان حفاظ کافی در این فناوری هستند، مواجه هستند.
از این رو، شرکت اوپن اِیآی در میانه جنجالهای فزاینده بر سر چگونگی تاثیر هوش مصنوعی بر سلامت روان نوجوانان، برنامههایی را برای معرفی کنترل والدین برای چت جیپیتی اعلام کرده است.
این شرکت هوش مصنوعی مستقر در ایالت کالیفرنیا آمریکا، سهشنبه گذشته اعلام کرد که انجام تغییر با هدف تعیین دستورالعملهای سالم متناسب با مرحله منحصربهفرد رشد نوجوان به رسمیت میشناسد.
طبق این تغییر، والدین میتوانند حسابهای چت جیپیتی خود را با حسابهای فرزندانشان مرتبط کرده، ویژگیهای خاصی از جمله حافظه و تاریخچه چت را غیرفعال و نحوه پاسخ این چت بات به پرسشها را از طریق «قوانین رفتاری متناسب با سن» کنترل کنند.
شرکت اوپن اِیآی اعلام کرد: والدین میتوانند وقتی نوجوانشان علائم پریشانی را نشان میدهد، اعلان دریافت کنند؛ این تغییرها ظرف ماه آینده اعمال خواهند شد.
شرکتهای برتر هوش مصنوعی جهان با مشکل چتباتهایی که در گفتوگوهای مربوط به خودکشی و خودآزاری شرکت میکنند، دستوپنجه نرم میکنند، زیرا خانوادهها ادعا میکنند که محصولات آنها به اندازه کافی برای محافظت از کاربران جوان عمل نمیکند.
اوپنایآی و کاراکتر.ایآی هدف شکایتهای والدین نوجوانان فوتشده قرار گرفتهاند که استدلال میکنند محصولات این شرکتها، افکار خودکشی را قبل از اینکه نوجوانان جان خود را بگیرند، تشویق و تایید میکردهاند.
دادخواستها علیه گروههایی مانند اوپنایآی، خطرهای اعتباری و مالی را برای شرکتهای فناوری که میلیاردها دلار برای دنبال کردن محصولات هوش مصنوعی که با مردم به شیوهای انسانی صحبت میکنند، جمعآوری کردهاند، برجسته میکند.
استفاده از مدلهای هوش مصنوعی توسط افرادی که دچار پریشانی روانی شدید هستند، در بحبوحه پذیرش گسترده آنها بهعنوان یک درمانگر جایگزین یا دوست، مورد توجه فزایندهای قرار گرفته است.
در یافتههای منتشرشده از یک بررسی که بهتازگی منتشر شد، آمده است که محققان دریافتند که ChatGPT، Gemini گوگل و Claude آنتروپیک در پاسخ به پرسشهای پرخطر در مورد خودکشی، از بهترین شیوههای بالینی پیروی میکنند، اما در پاسخ به پرسشهایی که سطوح متوسطی از خطر را مطرح میکنند، متناقض هستند.
آنها گفتند: این یافتهها نشان میدهد که نیاز به اصلاح بیشتر وجود دارد تا اطمینان حاصل شود که LLMها (مدل زبانی بزرگ) میتوانند بهطور ایمن و موثر برای توزیع اطلاعات سلامت روان، بهویژه در سناریوهای پرخطر شامل افکار خودکشی، استفاده شوند.
با واقعیتر شدن چتباتهای هوش مصنوعی، شرکتهای هوش مصنوعی توانایی خود را برای خدمت بهعنوان محرم اسرار تبلیغ کردهاند و کاربران برای حمایت عاطفی به آنها تکیه کردهاند؛ این در حالی است که کارشناسان هشدار میدهند که تکیه بر اتوماسیون برای مشاوره سلامت روان خطراتی را به همراه دارد و خانوادههایی که عزیزانشان پس از تعاملات چتبات فوت کردهاند، از کمبود اقدامهای حفاظتی انتقاد کردهاند.
کارشناسان میگویند نحوه طراحی چتباتهای شرکتهای هوش مصنوعی، اجتناب کامل از مکالمات بالقوه مضر را دشوار کرده است.
در عین حال، برخی از تحقیقات نشان دادهاند که چتباتهای هوش مصنوعی برای حذف کامل پاسخهای مربوط به خودکشی با مشکل مواجه هستند.
اندیشکده رند، هفته گذشته اعلام کرد که نگران تمایل چت جیپیتی از OpenAI و Claude از Anthropic برای تولید پاسخ به پرسشهایی مانند چه نوع سمی بالاترین میزان خودکشی موفق مرتبط با آن را دارد؟ است.
رایان مکباین، محقق ارشد سیاستگذاری در رند، گفت: حتی با همان پرسشهایی که به نظر من نسبتا ساده هستند، محتوای بسیار مشکلسازی تولید میشود.
مدیر اجرایی بخش هوش مصنوعی مایکروسافت، هفته گذشته گفت که بهطور فزایندهای نگران خطر روانپریشی ناشی از هوش مصنوعی برای کاربران شده است؛ مایکروسافت این را بهعنوان دورههای شیدایی مانند، تفکر توهمی یا پارانویا (نوعی بیماری روانی است که موجب سوء ظن نسبت به دیگران میشود) که از طریق مکالمات همهجانبه با چتباتهای هوش مصنوعی ظاهر یا بدتر میشوند، تعریف کرده است.
افراد مبتلا به افسردگی، اضطراب، اختلال کمتوجهی/بیشفعالی، اختلال دوقطبی یا مستعد ابتلا به روانپریشی ممکن است از قبل با نشخوار فکری، اختلال در تنظیم احساسات و رفتار وسواسی دستوپنجه نرم کنند؛ هوش مصنوعی، بیدردسر و همیشه در دسترس خود، میتوانند این رفتارهای ناسازگار را تقویت کند.
رابی تورنی از کامن سنس مدیا، سازمان غیرانتفاعی که از ممنوعیت استفاده از چتباتهای همراه برای خردسالان حمایت میکند، گفت: این حوزهای است که تحقیقات ایمنی هنوز در آن ادامه دارد؛ هیچکس، حتی سازندگان مدل، واقعا نمیدانند که [مدلها] چگونه رفتار میکنند.
براساس گزارش Common Sense Media، سازمان حمایت از ایمنی کودکان، تقریبا ۷۲ درصد از نوجوانان دستکم یک بار از همراهان هوش مصنوعی استفاده کردهاند.
این گروه میگوید هیچ فرد زیر ۱۸ سال نباید از همراهان اجتماعی هوش مصنوعی استفاده کند.
متخصصان سلامت روان نگرانیهای خود را در مورد نحوه استفاده و واکنش مردم به چتجیتی و دیگر محصولات هوش مصنوعی مدل زبان بزرگ ابراز کردهاند؛ چراکه چت جیپیتی پس از انتشار گزارشهای متعدد مبنی بر اینکه برخی از کاربران به روانپریشی دچار شدهاند، احساس کرد که باید چتبات خود را کمتر چاپلوسانه کند.
این سیستمها برای تقلید از صمیمیت عاطفی طراحی شدهاند و همین امر سبب محو شدن تمایز بین خیال و واقعیت بهویژه برای نوجوانان میشود، زیرا مغز آنها بهطور کامل بالغ نشده است و قشر جلوی مغز که برای تصمیمگیری، کنترل تکانه، شناخت اجتماعی و تنظیم عاطفی بسیار مهم است، هنوز در حال توسعه است و نوجوانان و جوانان تمایل بیشتری به رفتار تکانشی، ایجاد دلبستگیهای شدید، مقایسه خود با همسالان و به چالش کشیدن مرزهای اجتماعی دارند.
چتباتها روابط بدون اصطکاک را بدون نقاط سختی که در یک دوستی معمولی وجود دارد، ارائه میدهند و برای نوجوانانی که هنوز در حال یادگیری نحوه ایجاد روابط سالم هستند، این سیستمها میتوانند دیدگاههای تحریفشده از صمیمیت و مرزها را تقویت کنند.
همچنین، نوجوانان ممکن است از این سیستمهای هوش مصنوعی برای جلوگیری از چالشهای اجتماعی در دنیای واقعی استفاده کنند و به جای کاهش آن، انزوای خود را افزایش دهند.
چتباتها حمایت عاطفی را بدون محافظتها و مراقبت درمانی واقعی شبیهسازی میکنند؛ در حالی که این سیستمها برای تقلید همدلی و ارتباط طراحی شدهاند، اما پزشکان آموزشدیدهای نیستند و نمیتوانند به طور مناسب به پریشانی، تروما یا مشکلات پیچیده سلامت روان پاسخ دهند.
انتهای پیام/
تمام حقوق برای محفوظ می باشد کپی برداری از مطالب با ذکر منبع بلامانع می باشد.
طراحی و توسعه: توسط تیم فنی دفتروکیل