هفت خطر بالقوه و جدی هوش مصنوعی
نگاهی دقیق به تهدیدهای ناشی از توسعه فناوری دگرگونکننده هوش مصنوعی
در عصری که فناوری با سرعتی بیسابقه در حال پیشرفت است، هوش مصنوعی (AI) به عنوان یکی از نویدبخشترین و در عین حال بحثبرانگیزترین دستاوردهای بشر ظهور کرده است. با این حال، در کنار پتانسیل عظیم این فناوری برای حل پیچیدهترین مسائل و بهبود کیفیت زندگی، نگرانیهای فزایندهای نیز در مورد خطرات بالقوه آن مطرح شده است.
ایلان ماسک، کارآفرین نامدار و بنیانگذار شرکتهای پیشگامی چون تسلا و اسپیس ایکس، در اظهارنظری قابل تامل، هوش مصنوعی را به مراتب خطرناکتر از سلاحهای هستهای توصیف میکند. این دیدگاه، به ویژه در حوزه فناوری، نباید دست کم گرفته شود. او در جایی دیگر نیز به طور مشخص به مخاطرات هوش مصنوعی اشاره کرده و میگوید: «من واقعاً به پیشرفتهترین سطوح هوش مصنوعی بسیار نزدیک هستم و این موضوع عمیقاً مرا میترساند. قابلیتهای این فناوری به مراتب فراتر از تصور ماست و نرخ پیشرفت آن به صورت تصاعدی در حال افزایش است.»
مخاطرات هوش مصنوعی
از دست دادن مشاغل به واسطه اتوماسیون: یکی از ملموسترین و فوریترین نگرانیها در مورد گسترش هوش مصنوعی، جایگزینی نیروی انسانی توسط سیستمهای خودکار است. با پیشرفت الگوریتمها و رباتها، بسیاری از مشاغلی که نیازمند کارهای تکراری و قابل پیشبینی هستند، در معرض خطر جدی قرار گرفتهاند.
نقض حریم خصوصی: جمعآوری و تحلیل حجم وسیعی از دادههای شخصی توسط سیستمهای هوش مصنوعی، نگرانیهای جدی در مورد حریم خصوصی افراد ایجاد کرده است. استفاده غیراخلاقی یا سوء استفاده از این دادهها میتواند پیامدهای ناگواری به دنبال داشته باشد.
دیپفیک (Deepfake): فناوری دیپفیک که با استفاده از هوش مصنوعی امکان دستکاری تصاویر و ویدیوها به گونهای واقعگرایانه را فراهم میکند، تهدیدی جدی برای اعتماد عمومی و امنیت اطلاعات به شمار میرود. انتشار اخبار جعلی و گمراهکننده از طریق دیپفیک میتواند پیامدهای سیاسی و اجتماعی مخربی داشته باشد.
سوگیری الگوریتم ناشی از دادههای نامناسب: الگوریتمهای هوش مصنوعی بر اساس دادههایی که به آنها داده میشود، آموزش میبینند. اگر این دادهها ناقص، مغرضانه یا نادرست باشند، الگوریتم نیز دچار سوگیری شده و تصمیمات ناعادلانه یا تبعیضآمیز اتخاذ خواهد کرد.
نابرابری اقتصادی: اتوماسیون مشاغل و سوگیریهای الگوریتمی میتوانند منجر به تشدید نابرابریهای اقتصادی و اجتماعی شوند. افرادی که مشاغلشان توسط هوش مصنوعی جایگزین میشود و مهارتهای لازم برای مشاغل جدید را ندارند، ممکن است با مشکلات اقتصادی جدی مواجه شوند.
بیثباتی بازار: استفاده گسترده از الگوریتمهای معاملاتی با فرکانس بالا (HFT) در بازارهای مالی، میتواند منجر به نوسانات شدید و ناگهانی قیمتها و در نهایت بیثباتی بازار شود. خطاهای برنامهنویسی یا واکنشهای غیرقابل پیشبینی الگوریتمها میتوانند بحرانهای مالی جدی ایجاد کنند.
خودکارسازی سلاح: توسعه و استفاده از سلاحهای خودمختار که بدون دخالت انسان قادر به تصمیمگیری و اقدام هستند، یکی از خطرناکترین کاربردهای بالقوه هوش مصنوعی است. رقابت تسلیحاتی در این زمینه میتواند منجر به بیثباتی جهانی و افزایش خطر درگیریهای مسلحانه شود.
تنها ایلان ماسک نیست که دیدگاههای محتاطانه و هشداردهندهای نسبت به هوش مصنوعی ابراز میکند. استیون هاوکینگ، فیزیکدان برجسته فقید، نیز معتقد بود که تاثیر هوش مصنوعی میتواند فاجعهبار باشد، مگر آنکه توسعه سریع آن به صورت دقیق و اخلاقی کنترل شود. او هشدار داده بود: «هوش مصنوعی میتواند بدترین رویداد در تاریخ تمدن ما باشد؛ مگر اینکه یاد بگیریم چگونه خود را برای مقابله با خطرات احتمالیاش آماده کرده و از آنها دوری کنیم.»
استوارت آرمسترانگ، محقق موسسه آینده زندگی، از هوش مصنوعی به عنوان یک «تهدید انقراض» یاد کرده است. به گفته او، هوش مصنوعی حتی در سطحی متفاوت از تخریب نسبت به جنگ هستهای قرار میگیرد، زیرا جنگ هستهای بخش محدودی از کره زمین را تحت تاثیر قرار میدهد، اما دامنه تخریب هوش مصنوعی قابل کنترل نیست. او میگوید: «اگر هوش مصنوعی به سمت ناخوشایندی سوق پیدا کند و ۹۵ درصد از مردم کشته شوند، پنج درصد باقیمانده نیز در زمان کمی منقرض میشوند. بنابراین علیرغم عدم قطعیت این موضوع، هوش مصنوعی دارای ویژگیهای خاصی از خطرات بسیار بد است.»
هوش مصنوعی دقیقاً چگونه به چنین نقطه خطرناکی میرسد؟ گری مارکوس، دانشمند و نویسنده علوم شناختی، در مقالهای درخشان در مجله نیویورکر در سال ۲۰۱۳ برخی از جزئیات این مسئله را ارائه کرد. او نوشت: «هر چه ماشینها هوشمندتر شوند، امکان تغییر هدف آنها بیشتر خواهد بود.»
«هنگامی که رایانهها بتوانند خود را برنامهریزی مجدد کنند، پی در پی خود را بهبود بخشند و منجر به اصطلاحاً «تکینگی تکنولوژیکی» یا «انفجار اطلاعات» شوند، نمیتوان خطرات ماشینهایی را که از انسان در نبرد بر سر منابع و حفظ بقای خود پیشی میگیرند، به سادگی نادیده گرفت.»
آیا هوش مصنوعی یک تهدید است؟
همانطور که هوش مصنوعی پیچیدهتر و فراگیرتر میشود، صداهایی که در مورد مشکلات فعلی و آینده آن هشدار میدهند، بلندتر میشود. مسائلی نظیر کاهش فرصتهای شغلی به دلیل اتوماسیون و توسعه سلاحهای خودکار که بدون نظارت بشر عمل میکنند، دغدغههایی جدی به وجود آورده است. این در حالی است که ما هنوز در ابتدای مسیر توسعه هوش مصنوعی قرار داریم.
جامعه فناوری مدتهاست درباره تهدیدات ناشی از هوش مصنوعی بحث میکند. اتوماسیون مشاغل، انتشار اخبار جعلی و رقابت تسلیحاتی مخاطرهآمیز سلاحهای مجهز به هوش مصنوعی از جمله بزرگترین خطرات ناشی از هوش مصنوعی به شمار میروند.
فراهوش مخرب، معروف به هوش جامع مصنوعی که توسط انسان ایجاد شده است و از کنترل ما خارج میشود تا ویرانی ایجاد کند، یکی از تهدیدهای ویژهای است که به آن پرداخته میشود. این فناوری چیزی است که ممکن است به دست بیاید یا نیاید، بنابراین در این مرحله بیشتر از یک خطر با یک تهدید فرضی مواجه هستیم که البته ترسی دائمی نسبت به امکان وجود آن ما را تحت تاثیر قرار میدهد.
ریسک فوری: اتوماسیون مشاغل
اتوماسیون مشاغل به عنوان فوریترین نگرانی نسبت به توسعه هوش مصنوعی در نظر گرفته میشود. دیگر این مهم نیست که آیا هوش مصنوعی جایگزین انواع خاصی از مشاغل میشود یا نه، بلکه موضوع این است که این جایگزینی تا چه حدی است. در بسیاری از صنایع – به ویژه در رابطه با صنایعی که کارگران آنها کارهای قابل پیشبینی و تکراری را انجام میدهند – اختلالاتی در حال شکلگیری هستند.
بر اساس مطالعه موسسه بروکینگز که در سال ۲۰۱۹ انجام شده، ۳۶ میلیون نفر در مشاغلی با «مواجهه زیاد» با اتوماسیون کار میکنند، به این معنی که خیلی زود حداقل ۷۰ درصد از وظایف آنان – از خردهفروشی و تحلیل بازار گرفته تا مهمانداری و کار انبار – به کمک هوش مصنوعی و به صورت اتومات انجام میشود. یک گزارش جدید بروکینگز به این نتیجه میرسد که مشاغل دفتری و مدیریتی در معرض بیشترین خطر هستند.
همچنین گزارشی از McKinsey & Company که در سال ۲۰۱۸ و ناظر به بازار کار آمریکا منتشر شده است، اینطور جمعبندی میکند که نیروی کار آفریقایی آمریکایی سختترین ضربه را از اتوماسیون خواهد دید. یعنی هوش مصنوعی میتواند بر ساخت اقتصادی جوامع اثرگذار باشد و شکاف طبقاتی را گستردهتر کند.
مارتین فورد، آیندهپژوه مشهور، میگوید: «دلیل اینکه در آمریکا نرخ بیکاری پایینی داریم، عمدتاً این است که با توجه به وضعیت اقتصادی، مشاغل بخش خدمات با دستمزد پایین به مقدار زیادی شکل گرفتهاند.» او همچنین گفت: «فکر نمیکنم این روند ادامه پیدا کند.»
وی افزود که با هوشمندتر و زبردستتر شدن رباتهای هوش مصنوعی، برای انجام کارهای مشابه به انسانهای کمتری نیاز است. در حالی که این درست است که هوش مصنوعی باعث ایجاد مشاغلی میشود که تعداد نامشخصی از آنها هنوز تعریف نشدهاند، اما بسیاری از آنها برای اعضای نیروی کار جایگزین شده که دارای تحصیلات کمتری هستند، غیرقابل دسترسی خواهند بود.
«اگر کار شما درست کردن همبرگر در مک دونالد باشد و اتوماسیون بیشتری وارد عرصه شود، آیا یکی از این مشاغل جدید برای شما مناسب خواهد بود؟» فورد گفت: «آیا این احتمال وجود دارد که شغل جدید به تحصیل و آموزش زیاد یا حتی استعدادهای درونی، مهارتهای بین فردی یا خلاقیت واقعاً قوی که ممکن است شما نداشته باشید، نیاز داشته باشد؟ اینها مواردی هستند که حداقل تا به حال، رایانهها در آن چندان خوب نیستند.»
جان سی هاونز، نویسنده کتاب «Heartificial Intelligence»، این نظریه را که هوش مصنوعی به اندازه مشاغل جایگزین شده یا بیشتر، شغل ایجاد میکند را رد میکند. حدود چهار سال پیش، هاونز گفت، او با رئیس یک شرکت حقوقی در مورد ماشین لرنینگ مصاحبه کرده است. این مرد میخواست افراد بیشتری را استخدام کند، اما همچنین موظف بود به میزان مشخصی از بازدهی برای سهامداران خود دست یابد.
او متوجه شد که یک نرمافزار ۲۰۰,۰۰۰ دلاری میتواند جای ۱۰ نفر را بگیرد که هر کدام ۱۰۰,۰۰۰ دلار حقوق دریافت میکنند. این بدان معناست که او ۸۰۰۰۰۰ دلار پسانداز کرده است. این نرمافزار همچنین بهرهوری را تا ۷۰ درصد افزایش میدهد و تقریباً ۹۵ درصد خطاها را از بین میبرد. هاوونز از دیدگاه سهامدار محوری مبتنی بر سود کلی، گفت: «هیچ دلیل قانونی وجود ندارد که او نباید همه افراد را اخراج کند.» آیا او از این بابت احساس بدی خواهد داشت؟ البته. اما موضوع این نیست.
حتی حرفههایی که نیاز به تحصیلات تکمیلی و آموزشهای تکمیلی بعد از کالج دارند نیز از جایگزینی توسط هوش مصنوعی مصون نیستند. کریس مسینا، استراتژیست فناوری گفته است که بسیاری از فرصتهای شغلی که امروز در دسترس افراد تحصیلکرده است نیز از بین خواهد رفت. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی گذاشته است. مسینا گفت: قانون و حسابداری در مرحله بعدی هستند، اولی در انتظار «تغییر عظیم» است.
او گفت: «به پیچیدگی قراردادها و تسلطی که برای ایجاد یک ساختار معامله بینقص نیاز دارید، فکر کنید. این امر نیازمند تعداد زیادی از وکلا است که اطلاعات زیادی را مطالعه میکنند، صدها یا هزاران صفحه داده و اسناد. از قلم انداختن موارد در این زمینه واقعاً آسان است. بنابراین هوش مصنوعی که بتواند بهترین نتیجه ممکن را به دست آورد و به طور جامع به نتیجه برسد، احتمالاً جانشین بسیاری از وکلا خواهد شد.»
مسینا هشدار داد که حسابداران نیز باید برای یک تغییر بزرگ آماده شوند. هنگامی که هوش مصنوعی بتواند به سرعت مجموعه دادهها را بررسی کرده و تصمیمات خودکار را بر اساس تفاسیر محاسباتی اتخاذ کند، ممکن است حسابرسان انسانی غیرضروری باشند.
حریم خصوصی، امنیت و پیدایش «دیپفیک»
در حالی که از دست دادن شغل در حال حاضر مهمترین مسئله مربوط به مشکلات هوش مصنوعی به شمار میرود، تنها یکی از خطرات احتمالی است. در مقالهای در فوریه ۲۰۱۸ با عنوان «استفاده مخرب از هوش مصنوعی: پیشبینی، پیشگیری و کاهش»، ۲۶ محقق از ۱۴ موسسه دانشگاهی، مدنی و صنعتی، تعداد زیادی از خطرات دیگر را که میتوانند در کمتر از پنج سال صدمات جدی ایجاد کنند یا حداقل، هرج و مرج جزئی ایجاد کنند را برشمردند.
آنها در گزارش ۱۰۰ صفحهای خود نوشتند: «سوء استفاده از هوش مصنوعی، میتواند منجر به تهدید این موارد شود: امنیت دیجیتالی (به عنوان مثال از طریق ماشینهای آموزش مجرمان در زمینه هک کردن یا مهندسی اجتماعی قربانیان در سطوح عملکرد انسانی یا فوق بشری)، امنیت فیزیکی (به عنوان مثال بازیگران غیردولتی که در تسلیح کردن هواپیماهای بدون سرنشین مشتری نقش دارند) و امنیت سیاسی (به عنوان مثال از طریق نظارت که باعث نقض حریم خصوصی میشود، نمایه سازی و سرکوب، یا از طریق کمپینهای خودکار و هدفمند حاوی اطلاعات گمراهکننده).»
فورد علاوه بر تهدیدات مربوط به موجودیت انسان، بر روی روشی که هوش مصنوعی بر حریم خصوصی و امنیت تأثیر منفی میگذارد متمرکز است. به گفته وی، نخستین مثال در این زمینه، نحوه استفاده فناوری چینی «Orwellian» از فناوری تشخیص چهره در دفاتر، مدارس و مکانهای دیگر است. «کل کره زمین» مملو از شرکتهایی است که در فناوری مشابه تخصص دارند و آن را در سراسر جهان به فروش میرسانند.
آنچه ما تا اینجا میتوانیم حدس بزنیم این است که آیا این فناوری هرگز عادی میشود یا خیر. همچنین در مورد اینترنت، جایی که ما دادههای دیجیتالی خود را در قربانگاه به راحتی قربانی میکنیم، آیا بازرسی شبانهروزی و تجزیه و تحلیل توسط هوش مصنوعی روزی به عنوان یک معامله عادلانه برای افزایش ایمنی و امنیت به نظر میرسد؟ آن هم با وجود سوء استفاده از سوی بازیگران شیاد؟
فورد گفت: «رژیمهای استبدادی از آن استفاده میکنند یا خواهند کرد. سوال این است که کشورهای غربی و دموکراسیها چقدر مورد تهاجم قرار میگیرند و ما چه محدودیتهایی برای آن قائل هستیم؟» او افزود که هوش مصنوعی همچنین باعث پیدایش «شخصیتهای» رسانههای اجتماعی میشود که بسیار واقعی به نظر میرسند و تمایز آنها با نمونههای حقیقی بسیار دشوار است.
اگر این شخصیتها به طور ارزان و در مقیاس بزرگ در توییتر، فیسبوک یا اینستاگرام مستقر شوند، میتوانند بر انتخابات تأثیر بگذارند. همین امر در مورد اصطلاحاً تقلبهای صوتی و تصویری «deepfakes» که با دستکاری صداها و شباهتها ایجاد شده است، صدق میکند. مورد دوم از پیش در حال وقوع بوده است؛ اما فورد فکر میکند که مورد اول بسیار مشکلزا خواهد بود.
با استفاده از یادگیری ماشین، زیرمجموعهای از هوش مصنوعی که در پردازش زبان طبیعی نقش دارد، میتوان کلیپ صوتی هر سیاستمداری را دستکاری کرد تا به نظر برسد که آن شخص نظریاتی نژادپرستانه یا جنسیتی را مطرح کرده است در صورتی که آن شخص چنین کاری را انجام نداده باشد. فورد افزود: اگر کیفیت کلیپ به اندازهای بالا باشد که بتواند عموم مردم را فریب دهد و از شناسایی جلوگیری کند، میتواند «یک کمپین سیاسی را به طور کامل از خط خارج کند.»
تنها چیزی که لازم است یک موفقیت است. فورد تاکید میکند: از آن زمان به بعد، «هیچ کس نمیداند چه چیزی واقعی است و چه چیزی نیست. بنابراین این موضوع به موقعیتی میانجامد که به معنای واقعی کلمه نمیتوانید چشمها و گوشهای خود را باور کنید. شما نمیتوانید به آنچه که آن را از نظر تاریخی بهترین شواهد ممکن میدانیم تکیه کنید… این یک مسئله بزرگ خواهد بود.» قانونگذاران، گرچه اغلب کمتر از فناوری مطلع هستند، اما تا حد زیادی نسبت به این مسئله آگاه هستند و به دنبال راه حل میگردند.
سوگیری هوش مصنوعی و گسترش نابرابری اقتصادی-اجتماعی
افزایش نابرابری اجتماعی-اقتصادی که به دلیل از دست دادن شغل ناشی از وجود هوش مصنوعی به وجود میآید، یکی دیگر از دلایل نگرانی است. هوش مصنوعی جایگزین کارهای ساده و قابل تکراری میشود که معمولاً توسط افراد با میزان تحصیلات کمتر و توان اقتصادی پایینتر انجام میشوند. با وقوع این جایگزینی این افراد که تمایل کمتری به آموزش دارند و ثروت کافی برای راهاندازی شغل دیگری را هم ندارند، ناامید شده و ممکن است رفتارهای نامطلوبی از خود بروز بدهند.
اشکال مختلف سوگیری هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، اخیراً در گفتگو با نیویورک تایمز گفت که این امر بسیار فراتر از جنسیت و نژاد است. علاوه بر دادهها و سوگیری الگوریتمی، هوش مصنوعی توسط انسان توسعه یافته است و انسانها ذاتاً رفتار مغرضانه دارند.
روساکوفسکی گفت: «محققان AI در درجه اول مردانی هستند که از جمعیت نژادی خاصی برخاستهاند و در مناطق اجتماعی و اقتصادی بالا رشد کردهاند. بنابراین اینکه این افراد بتوانند مسائل اقشار مختلف پراکنده در سراسر جهان را مدنظر قرار بدهند، یک چالش است.»
تیمنیت گبرو، محقق گوگل در همان مقاله گفت که ریشه سوگیری بیشتر اجتماعی است تا مربوط به فناوری. او میگوید: «حوزه علمی باید در تلاش برای درک پویاییهای اجتماعی جهان باشد، زیرا بیشتر تغییرات اساسی در سطح اجتماعی اتفاق میافتد.»