هوش مصنوعی AI، بهعنوان شاخهای پیچیده از علوم کامپیوتر در سالهای اخیر به شکل جدی مورد توجه قرار گرفته است؛ ارتباط این فناوری پیشرفته با حقوق بشر یکی از موضوعهای مهمی است که متعاقب گسترش استفاده از هوش مصنوعی و آشکار شدن پیامدهای آن به کانون بحثهای جدی وارد شده است.
تاکنون گزارشهای متعددی درباره تاثیر مثبت هوش مصنوعی بر تامین حقوق بشر منتشر شده و نمونههایی از این تاثیرگذاری نیز معرفی شدهاند؛ بهعنوان مثال، برخی بر این باور هستند که هوش مصنوعی میتواند پیوندهای پرخطر زنجیره تامین کالا را براساس مکان یا بخش مشخص کند.
منتقدان با زیر سوال بردن این ادعاها، تاکید دارند که هوش مصنوعی فقط به اندازه دادههایی که دریافت میکند، خوب است و این احتمال وجود دارد که سوءاستفادههای جدی گزارش نشوند؛ در عین حال، در حالی که خوشبینی قابل توجهی در مورد پتانسیل هوش مصنوعی در بررسیهای لازم حقوق بشر وجود دارد، هیچ ناظر جدی هوش مصنوعی را بهعنوان یک راهحل جادویی نمیبیند.
در حالی که حامیان نقش مثبت هوش مصنوعی بر تامین و تضمین حقوق بشر بر سهولت مشاهده چنین نقضهایی از طریق هوش مصنوعی تاکید دارند، مخالفان این رویکرد میگویند که تشخیص چنین نقضهایی اغلب دشوار است و مرتکبان این نقضها تلاش زیادی میکنند تا از معرض دید عموم پنهان شوند.
با توجه به نگرانیها در مورد پتانسیل هوش مصنوعی برای کمک به نقض حقوق بشر، مطرح کردن هوش مصنوعی بهعنوان راهحلی برای نقض حقوق بشر ممکن است غیرمنطقی به نظر برسد؛ در عین حال، این واقعیت انکارناپذیر است که چالش جلوگیری واقعی از وقوع نقض حقوق بشر، چالشی است که برای حل آن به چیزی بیش از هوش مصنوعی نیاز است.
اگرچه هوش مصنوعی نوید هوش فوق بشری را میدهد، حقیقت این است که بهعنوان ابزاری ساخته دست بشر، از مشکلات بسیار شبیه به مشکلات انسانی رنج میبرد؛ بسیاری از این مشکلات، معضلات اخلاقی را ایجاد میکنند که ممکن است مانع از کاربرد هوش مصنوعی در فضای دفاع از حقوق بشر شود.
نخستین چالش، مسئله سوگیری دادهها وجود دارد؛ مدلهای هوش مصنوعی فقط به اندازه دادههایی که براساس آنها آموزش دیدهاند، خوب هستند و اگر آن دادهها تحریف شده یا ناقص باشند، پیشبینیهای هوش مصنوعی ممکن است نادرست یا بدتر از آن، تبعیضآمیز باشند.
چالش دوم مربوط به شفافیت است؛ الگوریتمهای هوش مصنوعی، بهویژه آنهایی که مبتنی بر یادگیری ماشینی هستند، اغلب بهعنوان جعبههای سیاه عمل میکنند، به این معنی که درک دقیق نحوه رسیدن آنها به نتایجشان میتواند دشوار باشد؛ این عدم شفافیت میتواند اعتماد لازم برای اجرای آنها در نظارت بر حقوق بشر را تضعیف کند.
چالش سوم، ماهیت پیچیده نقض حقوق بشر است که اغلب نتیجه شرایط عمیق سیاسی، اجتماعی و اقتصادی است؛ این خطر وجود دارد که هوش مصنوعی نتواند ظرافتهای این موقعیتها را درک کند یا بدتر از آن، تعصبهای موجود در دادهها را تقویت کند.
چالش بعدی، سوءاستفاده احتمالی از هوش مصنوعی توسط برخی از بازیگران است؛ هوش مصنوعی در دست بازیگران نادرست میتواند منجر به نقض بیشتر حقوق بشر شود.
تسلط شرکتهای خصوصی بر فناوری پیچیده و پیشرفته هوش مصنوعی نیز با درک این واقعیت که این فناوری به شکل عمیقی بر زندگی انسانها تاثیر دارد، موضوعی مشکلساز است؛ چراکه تحقیقات تجربی نشان میدهند که مهمترین انگیزه برای سرمایهگذاری در فناوری، انجام سریعتر و کارآمدتر کارها است، نه انجام بهتر کارها و این موضوع نگرانیهای آشکاری را در مورد ایمنی برنامههای کاربردی ایجاد میکند.
استانداردهای دوگانه ایجادشده توسط برخی از کشورها در این زمینه، تعهدهای مبهمی را ایجاد کرده و معافیتهایی را رقم زده است؛ این استاندارد دوگانه بهطرز آشکاری با این واقعیت نشان داده میشود که رژیم صهیونیستی با وجود قبول و پذیرش تعهدها در این زمینه، سیستمهای هدفگیری هوش مصنوعی دیستوپیایی (ویرانشهری) را برای خودکارسازی و تسریع تولید فهرستهای کشتار جمعی در غزه مستقر میکند.
این تناقض بین تعهدهای انجامشده روی کاغذ و واقعیت موجود نهتنها یک ریاکاری نگرانکننده را آشکار میکند، بلکه پرسشهای جدی در مورد تعهد جامعه بینالمللی به پاسخگویی واقعی ایجاد میکند.
علاوه بر معافیتهای بیش از حد، لابیگریهای گسترده در صنایع مختلف برای کاهش تعهدها و ایجاد معافیتهای گسترده نیز وجود دارند.
از زمان راهاندازی چت جیپیتی ChatGPT شرکت اوپن اِیآی OpenAI در سال ۲۰۲۲، جهان درگیر هیاهوی درباره هوش مصنوعی مولد (AI) شده است و اکنون تنظیمکنندگان مقررات در تلاشند تا آسیبها و زیادهرویهای آن را مهار کنند، اما این چیز جدیدی نیست.
پیش از این در سال ۲۰۱۸، زمانی که پیشرفتها در یادگیری ماشین منجر به رونق اشتیاق به هوش مصنوعی شد، انفجار مشابه و همزمان دستورالعملهای اخلاقی هوش مصنوعی بیفایده و دیگر پیشنهادهای داوطلبانه خودتنظیمی رخ داد.
تلاشهای مختلف در این زمینه از چندین زاویه در معرض تهدید است و با آن، هر شانسی برای دستیابی به واقعیتی که در آن توسعه هوش مصنوعی به جای نظارت و استثمار مردم، در خدمت آنها باشد، از بین میرود.
هوش مصنوعی در موارد متعددی میتواند برای حقوق بشر مخاطرهآمیز باشد؛ یکی از این خطرها که بهتازگی در صدر اخبار جا گرفته است، تاثیر مخرب استفاده از هوش مصنوعی بر نوجوانان و جوانان دچار و مبتلا به مشکلات سلامت روان است.
موضوع مشکلساز در این زمینه مربوط به چتباتها (نرمافزارهای هوش مصنوعی) انساننما و پدیده توهم است؛ تصور انسانها از ارتباط با هوش مصنوعی بهعنوان ارتباط با موجودی شبیه انسان میتواند پیامدهای هولناکی داشته باشد؛ در سال ۲۰۲۳، مردی پس از اینکه یک چتبات به محرم اسرار او تبدیل شد و اضطراب زیستمحیطی او را تشدید کرد، جان خود را گرفت؛ چراکه چتبات مورد استفاده این ایده را تقویت کرد که اگر خودش را بکشد، به نجات سیاره کمک خواهد کرد.
انتقال یا برونسپاری تصمیمگیری به هوش مصنوعی بهویژه در مورد سیستمهای سلاحهای خودمختار که میتوانند بدون هدایت و کنترل انسان به اهداف ضربه بزنند، نیز خطرهایی جدی است.
در زیر به برخی از مهمترین خطرهای هوش مصنوعی برای حقوق بشر اشاره شده است:
فرسایش حق حریم خصوصی: حق زندگی خصوصی توسط ردیابی و نظارت مداومی که سیستمهای هوش مصنوعی برای جمعآوری دادهها استفاده میکنند، تهدید میشود؛ عدم شفافیت در مورد نحوه عملکرد سیستمهای هوش مصنوعی، عدم اطمینان را برای افراد ایجاد میکند، دادههایی که نه تنها منافع آنها، بلکه آسیبپذیریهای آنها را نیز آشکار میکند.
تشدید تبعیض و نابرابریهای اجتماعی: حق عدم تبعیض در معرض خطر فزایندهای است، زیرا سیستمهای هوش مصنوعی با هدف قرار دادن گروههای آسیبپذیر، تمایل دارند نابرابریهای اجتماعی موجود را تشدید کنند؛ فناوریهایی مانند تشخیص چهره و مدلسازی زبان، تعصب علیه اقلیتهای نژادی و قومی را نشان دادهاند که منجر به بیعدالتیهایی مانند دستگیریها و اتهامزنیهای دروغین شده است.
علاوه بر این، ابهام و منافعی که توسط سیستمهای هوش مصنوعی تامین میشود، میتواند شیوههای دستکاری را تداوم بخشد؛ در نهایت، سیستمهای هوش مصنوعی گروههای خاصی مانند افرادی که سواد دیجیتالی ندارند یا افراد دارای معلولیت را بیشتر به حاشیه میراند.
چالش آزادی بیان: آزادی بیان نیز با چالشهایی روبهرو است؛ تعدیل مبتنی بر هوش مصنوعی در پلتفرمها میتواند بهطور ناخواسته اشکال مشروع بیان را فراتر از الزامات قانونی در مورد نفرتپراکنی و دیگر اشکال غیرقانونی بیان سرکوب کند؛ در واقع، سیستمهای هوش مصنوعی برای درک زمینه و ظرافت در گفتار تلاش میکنند و استفاده از رباتها امکانات جدیدی را برای سوءاستفاده ایجاد میکند.
علاوه بر این، سیستمهایی که الگوریتمهایی با طراحیهای اعتیادآور دارند یا اتاقهای پژواک ایجاد میکنند، مانند برخی از پلتفرمهای رسانههای اجتماعی، میتوانند بر توانایی انتخاب و تصمیمگیری آزادانه بدون اجبار یا دستکاری تاثیر بگذارند.
آسیبهای ساختاری موثر بر کرامت انسانی: علاوه بر چالشهای خاص حقوق بشر که در بالا ذکر شد، هوش مصنوعی تاثیر عمیقی بر کرامت انسانی بهطور کلی دارد؛ آسیبهای ساختاری ناشی از فناوریهای نظارتی، مفاهیمی مانند استقلال انسانی، عاملیت انسانی، خودگردانی و خودمختاری را از بین میبرند؛ در عین حال، فناوریهای تشخیص احساسات با کاهش افراد به نقاط دادهای جدا از ارزش و کرامت ذاتی آن ها، خطر غیرانسانی کردن افراد را به همراه دارند.
آسیبهای سطح جمعی و اجتماعی: ماهیت نامرئی و غیرقابل پیشبینی آسیبهای حقوق بشری ناشی از سیستمهای هوش مصنوعی، چالشهای پیچیدهای را ایجاد میکند؛ در حالی که این آسیبها ممکن است همیشه به صورت جداگانه قابل مشاهده نباشند، اثر تجمعی آنها میتواند تاثیر قابل توجهی بر کل جوامع داشته باشد؛ درک وجود سیستمهای جانبدارانه برای افراد دشوار است، زیرا تاثیر آن فقط با نگاه به دادههای آماری و توزیعها قابل مشاهده است؛ این امر نیاز به ملاحظات حقوق بشر را در کل چرخه عمر سیستمهای هوش مصنوعی، از طراحی تا استقرار، برجسته میکند.
هوش مصنوعی چالشهای زیادی را برای چارچوب حقوق بشر ایجاد میکند؛ بسیاری از این چالشها با نگرانیهایی که از قبل برای نهادهای ملی حقوق بشر آشنا هستند، همسو هستند.
پیچیدگی در این واقعیت نهفته است که بخش زیادی از آسیبهای ناشی از هوش مصنوعی به طور مستقیم در سطح فردی احساس نمیشود؛ در عوض، اغلب بدون توجه رخ میدهد و بر کل جامعه تاثیر میگذارد.
طبق تحقیقات جدید دانشگاه چارلز داروین (CDU)، ظهور هوش مصنوعی (AI) نحوه تعامل مردم را تغییر داده است و یک خطر جهانی برای کرامت انسانی ایجاد میکند.
نویسنده اصلی این تحقیق توضیح داد که هوش مصنوعی به سرعت در حال تغییر شکل سیستمهای حقوقی و اخلاقی غرب است، با وجود این، این تحول اصول دموکراتیک را از بین میبرد و نابرابریهای اجتماعی موجود را تقویت میکند.
وی تصریح کرد: چارچوبهای نظارتی فعلی اغلب حقوق و آزادیهای اساسی بشر، ازجمله حریم خصوصی، محافظت در برابر تبعیض، استقلال فردی و مالکیت معنوی را نادیده میگیرند؛ این کمبود تا حد زیادی به دلیل ماهیت مبهم بسیاری از مدلهای الگوریتمی است که ردیابی عملیات آنها را دشوار میکند.
به گفته وی، تصمیمهای تولیدشده توسط سیستمهای یادگیری عمیق و یادگیری ماشینی را نمیتوان توسط انسانها ردیابی کرد؛ این ابهام، درک اینکه آیا و چگونه یک مدل هوش مصنوعی به حقوق یا کرامت آنها تجاوز کرده است، برای افراد چالش برانگیز میکند و مانع از پیگیری موثر عدالت در صورت وقوع چنین تخلفاتی میشود.
کارشناسان سازمان ملل بهتازگی از دولتها و مشاغل خواستند تا اطمینان حاصل کنند که تهیه و استقرار سیستمهای هوش مصنوعی با اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر همسو است.
رئیس گروه کاری سازمان ملل در مورد تجارت و حقوق بشر، در گزارشی به پنجاهونهمین جلسه شورای حقوق بشر گفت: سیستمهای هوش مصنوعی جوامع ما را متحول میکنند، اما بدون حفاظات مناسب، آنها خطر تضعیف حقوق بشر را دارند.
این گروه کاری تصریح کرد: کشورها به طور فزایندهای از دستورالعملهای داوطلبانه به سمت قوانین الزامآور در مورد هوش مصنوعی و حقوق بشر در حال تغییر هستند، اما چشمانداز نظارتی هنوز پراکنده است، فاقد استانداردهای جهانی با تعاریف توافقشده و ادغام دیدگاه کشورهای جنوب جهان است.
کارشناسان تشریح کردند که چگونه سیستمهای هوش مصنوعی هنگامی که بدون بررسی کافی حقوق بشر مطابق با اصول راهنما تهیه یا مستقر شوند، میتوانند منجر به تاثیرهای نامطلوب بر همه حقوق بشر، ازجمله تبعیض، نقض حریم خصوصی و محرومیت، بهویژه برای گروههای در معرض خطر ازجمله زنان، کودکان و اقلیتها شوند.
آنها تاکید کردند که بازیگران دولتی و خصوصی باید ارزیابیهای دقیقی از تاثیر حقوق بشر انجام دهند و شفافیت، پاسخگویی، نظارت و دسترسی به راهحل را تضمین کنند.
سازمان ملل پیشتر ۲ قطعنامه درباره تاثیر هوش مصنوعی بر حقوق بشر در مجمع عمومی تصویب کرد و هشدار داد که برخی از کاربردهای هوش مصنوعی با حقوق بشر ناسازگار است.
انتهای پیام/
تمام حقوق برای محفوظ می باشد کپی برداری از مطالب با ذکر منبع بلامانع می باشد.
طراحی و توسعه: توسط تیم فنی دفتروکیل