۷ خطر مرگبار هوش مصنوعی که آینده بشر را تهدید می‌کند!

۷ خطر مرگبار هوش مصنوعی که آینده بشر را تهدید می‌کند!

آنچه در این مقاله خواهید خواند...

هفت خطر بالقوه و جدی هوش مصنوعی

نگاهی دقیق به تهدیدهای ناشی از توسعه فناوری دگرگون‌کننده هوش مصنوعی

در عصری که فناوری با سرعتی بی‌سابقه در حال پیشرفت است، هوش مصنوعی (AI) به عنوان یکی از نویدبخش‌ترین و در عین حال بحث‌برانگیزترین دستاوردهای بشر ظهور کرده است. با این حال، در کنار پتانسیل عظیم این فناوری برای حل پیچیده‌ترین مسائل و بهبود کیفیت زندگی، نگرانی‌های فزاینده‌ای نیز در مورد خطرات بالقوه آن مطرح شده است.

ایلان ماسک، کارآفرین نامدار و بنیانگذار شرکت‌های پیشگامی چون تسلا و اسپیس ایکس، در اظهارنظری قابل تامل، هوش مصنوعی را به مراتب خطرناک‌تر از سلاح‌های هسته‌ای توصیف می‌کند. این دیدگاه، به ویژه در حوزه فناوری، نباید دست کم گرفته شود. او در جایی دیگر نیز به طور مشخص به مخاطرات هوش مصنوعی اشاره کرده و می‌گوید: «من واقعاً به پیشرفته‌ترین سطوح هوش مصنوعی بسیار نزدیک هستم و این موضوع عمیقاً مرا می‌ترساند. قابلیت‌های این فناوری به مراتب فراتر از تصور ماست و نرخ پیشرفت آن به صورت تصاعدی در حال افزایش است.»

مخاطرات هوش مصنوعی

از دست دادن مشاغل به واسطه اتوماسیون: یکی از ملموس‌ترین و فوری‌ترین نگرانی‌ها در مورد گسترش هوش مصنوعی، جایگزینی نیروی انسانی توسط سیستم‌های خودکار است. با پیشرفت الگوریتم‌ها و ربات‌ها، بسیاری از مشاغلی که نیازمند کارهای تکراری و قابل پیش‌بینی هستند، در معرض خطر جدی قرار گرفته‌اند.
نقض حریم خصوصی: جمع‌آوری و تحلیل حجم وسیعی از داده‌های شخصی توسط سیستم‌های هوش مصنوعی، نگرانی‌های جدی در مورد حریم خصوصی افراد ایجاد کرده است. استفاده غیراخلاقی یا سوء استفاده از این داده‌ها می‌تواند پیامدهای ناگواری به دنبال داشته باشد.
دیپ‌فیک (Deepfake): فناوری دیپ‌فیک که با استفاده از هوش مصنوعی امکان دستکاری تصاویر و ویدیوها به گونه‌ای واقع‌گرایانه را فراهم می‌کند، تهدیدی جدی برای اعتماد عمومی و امنیت اطلاعات به شمار می‌رود. انتشار اخبار جعلی و گمراه‌کننده از طریق دیپ‌فیک می‌تواند پیامدهای سیاسی و اجتماعی مخربی داشته باشد.
سوگیری الگوریتم ناشی از داده‌های نامناسب: الگوریتم‌های هوش مصنوعی بر اساس داده‌هایی که به آن‌ها داده می‌شود، آموزش می‌بینند. اگر این داده‌ها ناقص، مغرضانه یا نادرست باشند، الگوریتم نیز دچار سوگیری شده و تصمیمات ناعادلانه یا تبعیض‌آمیز اتخاذ خواهد کرد.
نابرابری اقتصادی: اتوماسیون مشاغل و سوگیری‌های الگوریتمی می‌توانند منجر به تشدید نابرابری‌های اقتصادی و اجتماعی شوند. افرادی که مشاغلشان توسط هوش مصنوعی جایگزین می‌شود و مهارت‌های لازم برای مشاغل جدید را ندارند، ممکن است با مشکلات اقتصادی جدی مواجه شوند.
بی‌ثباتی بازار: استفاده گسترده از الگوریتم‌های معاملاتی با فرکانس بالا (HFT) در بازارهای مالی، می‌تواند منجر به نوسانات شدید و ناگهانی قیمت‌ها و در نهایت بی‌ثباتی بازار شود. خطاهای برنامه‌نویسی یا واکنش‌های غیرقابل پیش‌بینی الگوریتم‌ها می‌توانند بحران‌های مالی جدی ایجاد کنند.
خودکارسازی سلاح: توسعه و استفاده از سلاح‌های خودمختار که بدون دخالت انسان قادر به تصمیم‌گیری و اقدام هستند، یکی از خطرناک‌ترین کاربردهای بالقوه هوش مصنوعی است. رقابت تسلیحاتی در این زمینه می‌تواند منجر به بی‌ثباتی جهانی و افزایش خطر درگیری‌های مسلحانه شود.
تنها ایلان ماسک نیست که دیدگاه‌های محتاطانه و هشداردهنده‌ای نسبت به هوش مصنوعی ابراز می‌کند. استیون هاوکینگ، فیزیکدان برجسته فقید، نیز معتقد بود که تاثیر هوش مصنوعی می‌تواند فاجعه‌بار باشد، مگر آنکه توسعه سریع آن به صورت دقیق و اخلاقی کنترل شود. او هشدار داده بود: «هوش مصنوعی می‌تواند بدترین رویداد در تاریخ تمدن ما باشد؛ مگر اینکه یاد بگیریم چگونه خود را برای مقابله با خطرات احتمالی‌اش آماده کرده و از آن‌ها دوری کنیم.»

استوارت آرمسترانگ، محقق موسسه آینده زندگی، از هوش مصنوعی به عنوان یک «تهدید انقراض» یاد کرده است. به گفته او، هوش مصنوعی حتی در سطحی متفاوت از تخریب نسبت به جنگ هسته‌ای قرار می‌گیرد، زیرا جنگ هسته‌ای بخش محدودی از کره زمین را تحت تاثیر قرار می‌دهد، اما دامنه تخریب هوش مصنوعی قابل کنترل نیست. او می‌گوید: «اگر هوش مصنوعی به سمت ناخوشایندی سوق پیدا کند و ۹۵ درصد از مردم کشته شوند، پنج درصد باقی‌مانده نیز در زمان کمی منقرض می‌شوند. بنابراین علیرغم عدم قطعیت این موضوع، هوش مصنوعی دارای ویژگی‌های خاصی از خطرات بسیار بد است.»

هوش مصنوعی دقیقاً چگونه به چنین نقطه خطرناکی می‌رسد؟ گری مارکوس، دانشمند و نویسنده علوم شناختی، در مقاله‌ای درخشان در مجله نیویورکر در سال ۲۰۱۳ برخی از جزئیات این مسئله را ارائه کرد. او نوشت: «هر چه ماشین‌ها هوشمندتر شوند، امکان تغییر هدف آن‌ها بیشتر خواهد بود.»

«هنگامی که رایانه‌ها بتوانند خود را برنامه‌ریزی مجدد کنند، پی در پی خود را بهبود بخشند و منجر به اصطلاحاً «تکینگی تکنولوژیکی» یا «انفجار اطلاعات» شوند، نمی‌توان خطرات ماشین‌هایی را که از انسان در نبرد بر سر منابع و حفظ بقای خود پیشی می‌گیرند، به سادگی نادیده گرفت.»

آیا هوش مصنوعی یک تهدید است؟

همانطور که هوش مصنوعی پیچیده‌تر و فراگیرتر می‌شود، صداهایی که در مورد مشکلات فعلی و آینده آن هشدار می‌دهند، بلندتر می‌شود. مسائلی نظیر کاهش فرصت‌های شغلی به دلیل اتوماسیون و توسعه سلاح‌های خودکار که بدون نظارت بشر عمل می‌کنند، دغدغه‌هایی جدی به وجود آورده است. این در حالی است که ما هنوز در ابتدای مسیر توسعه هوش مصنوعی قرار داریم.

جامعه فناوری مدت‌هاست درباره تهدیدات ناشی از هوش مصنوعی بحث می‌کند. اتوماسیون مشاغل، انتشار اخبار جعلی و رقابت تسلیحاتی مخاطره‌آمیز سلاح‌های مجهز به هوش مصنوعی از جمله بزرگ‌ترین خطرات ناشی از هوش مصنوعی به شمار می‌روند.

فراهوش مخرب، معروف به هوش جامع مصنوعی که توسط انسان ایجاد شده است و از کنترل ما خارج می‌شود تا ویرانی ایجاد کند، یکی از تهدیدهای ویژه‌ای است که به آن پرداخته می‌شود. این فناوری چیزی است که ممکن است به دست بیاید یا نیاید، بنابراین در این مرحله بیشتر از یک خطر با یک تهدید فرضی مواجه هستیم که البته ترسی دائمی نسبت به امکان وجود آن ما را تحت تاثیر قرار می‌دهد.

ریسک فوری: اتوماسیون مشاغل

اتوماسیون مشاغل به عنوان فوری‌ترین نگرانی نسبت به توسعه هوش مصنوعی در نظر گرفته می‌شود. دیگر این مهم نیست که آیا هوش مصنوعی جایگزین انواع خاصی از مشاغل می‌شود یا نه، بلکه موضوع این است که این جایگزینی تا چه حدی است. در بسیاری از صنایع – به ویژه در رابطه با صنایعی که کارگران آن‌ها کارهای قابل پیش‌بینی و تکراری را انجام می‌دهند – اختلالاتی در حال شکل‌گیری هستند.

بر اساس مطالعه موسسه بروکینگز که در سال ۲۰۱۹ انجام شده، ۳۶ میلیون نفر در مشاغلی با «مواجهه زیاد» با اتوماسیون کار می‌کنند، به این معنی که خیلی زود حداقل ۷۰ درصد از وظایف آنان – از خرده‌فروشی و تحلیل بازار گرفته تا مهمان‌داری و کار انبار – به کمک هوش مصنوعی و به صورت اتومات انجام می‌شود. یک گزارش جدید بروکینگز به این نتیجه می‌رسد که مشاغل دفتری و مدیریتی در معرض بیشترین خطر هستند.

همچنین گزارشی از McKinsey & Company که در سال ۲۰۱۸ و ناظر به بازار کار آمریکا منتشر شده است، اینطور جمع‌بندی می‌کند که نیروی کار آفریقایی آمریکایی سخت‌ترین ضربه را از اتوماسیون خواهد دید. یعنی هوش مصنوعی می‌تواند بر ساخت اقتصادی جوامع اثرگذار باشد و شکاف طبقاتی را گسترده‌تر کند.

مارتین فورد، آینده‌پژوه مشهور، می‌گوید: «دلیل اینکه در آمریکا نرخ بیکاری پایینی داریم، عمدتاً این است که با توجه به وضعیت اقتصادی، مشاغل بخش خدمات با دستمزد پایین به مقدار زیادی شکل گرفته‌اند.» او همچنین گفت: «فکر نمی‌کنم این روند ادامه پیدا کند.»

وی افزود که با هوشمندتر و زبردست‌تر شدن ربات‌های هوش مصنوعی، برای انجام کارهای مشابه به انسان‌های کمتری نیاز است. در حالی که این درست است که هوش مصنوعی باعث ایجاد مشاغلی می‌شود که تعداد نامشخصی از آن‌ها هنوز تعریف نشده‌اند، اما بسیاری از آن‌ها برای اعضای نیروی کار جایگزین شده که دارای تحصیلات کمتری هستند، غیرقابل دسترسی خواهند بود.

«اگر کار شما درست کردن همبرگر در مک دونالد باشد و اتوماسیون بیشتری وارد عرصه شود، آیا یکی از این مشاغل جدید برای شما مناسب خواهد بود؟» فورد گفت: «آیا این احتمال وجود دارد که شغل جدید به تحصیل و آموزش زیاد یا حتی استعدادهای درونی، مهارت‌های بین فردی یا خلاقیت واقعاً قوی که ممکن است شما نداشته باشید، نیاز داشته باشد؟ این‌ها مواردی هستند که حداقل تا به حال، رایانه‌ها در آن چندان خوب نیستند.»

جان سی هاونز، نویسنده کتاب «Heartificial Intelligence»، این نظریه را که هوش مصنوعی به اندازه مشاغل جایگزین شده یا بیشتر، شغل ایجاد می‌کند را رد می‌کند. حدود چهار سال پیش، هاونز گفت، او با رئیس یک شرکت حقوقی در مورد ماشین لرنینگ مصاحبه کرده است. این مرد می‌خواست افراد بیشتری را استخدام کند، اما همچنین موظف بود به میزان مشخصی از بازدهی برای سهامداران خود دست یابد.

او متوجه شد که یک نرم‌افزار ۲۰۰,۰۰۰ دلاری می‌تواند جای ۱۰ نفر را بگیرد که هر کدام ۱۰۰,۰۰۰ دلار حقوق دریافت می‌کنند. این بدان معناست که او ۸۰۰۰۰۰ دلار پس‌انداز کرده است. این نرم‌افزار همچنین بهره‌وری را تا ۷۰ درصد افزایش می‌دهد و تقریباً ۹۵ درصد خطاها را از بین می‌برد. هاوونز از دیدگاه سهامدار محوری مبتنی بر سود کلی، گفت: «هیچ دلیل قانونی وجود ندارد که او نباید همه افراد را اخراج کند.» آیا او از این بابت احساس بدی خواهد داشت؟ البته. اما موضوع این نیست.

حتی حرفه‌هایی که نیاز به تحصیلات تکمیلی و آموزش‌های تکمیلی بعد از کالج دارند نیز از جایگزینی توسط هوش مصنوعی مصون نیستند. کریس مسینا، استراتژیست فناوری گفته است که بسیاری از فرصت‌های شغلی که امروز در دسترس افراد تحصیل‌کرده است نیز از بین خواهد رفت. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی گذاشته است. مسینا گفت: قانون و حسابداری در مرحله بعدی هستند، اولی در انتظار «تغییر عظیم» است.

او گفت: «به پیچیدگی قراردادها و تسلطی که برای ایجاد یک ساختار معامله بی‌نقص نیاز دارید، فکر کنید. این امر نیازمند تعداد زیادی از وکلا است که اطلاعات زیادی را مطالعه می‌کنند، صدها یا هزاران صفحه داده و اسناد. از قلم انداختن موارد در این زمینه واقعاً آسان است. بنابراین هوش مصنوعی که بتواند بهترین نتیجه ممکن را به دست آورد و به طور جامع به نتیجه برسد، احتمالاً جانشین بسیاری از وکلا خواهد شد.»

مسینا هشدار داد که حسابداران نیز باید برای یک تغییر بزرگ آماده شوند. هنگامی که هوش مصنوعی بتواند به سرعت مجموعه‌ داده‌ها را بررسی کرده و تصمیمات خودکار را بر اساس تفاسیر محاسباتی اتخاذ کند، ممکن است حسابرسان انسانی غیرضروری باشند.

حریم خصوصی، امنیت و پیدایش «دیپ‌فیک»

در حالی که از دست دادن شغل در حال حاضر مهم‌ترین مسئله مربوط به مشکلات هوش مصنوعی به شمار می‌رود، تنها یکی از خطرات احتمالی است. در مقاله‌ای در فوریه ۲۰۱۸ با عنوان «استفاده مخرب از هوش مصنوعی: پیش‌بینی، پیشگیری و کاهش»، ۲۶ محقق از ۱۴ موسسه دانشگاهی، مدنی و صنعتی، تعداد زیادی از خطرات دیگر را که می‌توانند در کمتر از پنج سال صدمات جدی ایجاد کنند یا حداقل، هرج و مرج جزئی ایجاد کنند را برشمردند.

آن‌ها در گزارش ۱۰۰ صفحه‌ای خود نوشتند: «سوء استفاده از هوش مصنوعی، می‌تواند منجر به تهدید این موارد شود: امنیت دیجیتالی (به عنوان مثال از طریق ماشین‌های آموزش مجرمان در زمینه هک کردن یا مهندسی اجتماعی قربانیان در سطوح عملکرد انسانی یا فوق بشری)، امنیت فیزیکی (به عنوان مثال بازیگران غیردولتی که در تسلیح کردن هواپیماهای بدون سرنشین مشتری نقش دارند) و امنیت سیاسی (به عنوان مثال از طریق نظارت که باعث نقض حریم خصوصی می‌شود، نمایه سازی و سرکوب، یا از طریق کمپین‌های خودکار و هدفمند حاوی اطلاعات گمراه‌کننده).»

فورد علاوه بر تهدیدات مربوط به موجودیت انسان، بر روی روشی که هوش مصنوعی بر حریم خصوصی و امنیت تأثیر منفی می‌گذارد متمرکز است. به گفته وی، نخستین مثال در این زمینه، نحوه استفاده فناوری چینی «Orwellian» از فناوری تشخیص چهره در دفاتر، مدارس و مکان‌های دیگر است. «کل کره زمین» مملو از شرکت‌هایی است که در فناوری مشابه تخصص دارند و آن را در سراسر جهان به فروش می‌رسانند.

آنچه ما تا اینجا می‌توانیم حدس بزنیم این است که آیا این فناوری هرگز عادی می‌شود یا خیر. همچنین در مورد اینترنت، جایی که ما داده‌های دیجیتالی خود را در قربانگاه به راحتی قربانی می‌کنیم، آیا بازرسی شبانه‌روزی و تجزیه و تحلیل توسط هوش مصنوعی روزی به عنوان یک معامله عادلانه برای افزایش ایمنی و امنیت به نظر می‌رسد؟ آن هم با وجود سوء استفاده از سوی بازیگران شیاد؟

فورد گفت: «رژیم‌های استبدادی از آن استفاده می‌کنند یا خواهند کرد. سوال این است که کشورهای غربی و دموکراسی‌ها چقدر مورد تهاجم قرار می‌گیرند و ما چه محدودیت‌هایی برای آن قائل هستیم؟» او افزود که هوش مصنوعی همچنین باعث پیدایش «شخصیت‌های» رسانه‌های اجتماعی می‌شود که بسیار واقعی به نظر می‌رسند و تمایز آن‌ها با نمونه‌های حقیقی بسیار دشوار است.

اگر این شخصیت‌ها به طور ارزان و در مقیاس بزرگ در توییتر، فیس‌بوک یا اینستاگرام مستقر شوند، می‌توانند بر انتخابات تأثیر بگذارند. همین امر در مورد اصطلاحاً تقلب‌های صوتی و تصویری «deepfakes» که با دستکاری صداها و شباهت‌ها ایجاد شده است، صدق می‌کند. مورد دوم از پیش در حال وقوع بوده است؛ اما فورد فکر می‌کند که مورد اول بسیار مشکل‌زا خواهد بود.

با استفاده از یادگیری ماشین، زیرمجموعه‌ای از هوش مصنوعی که در پردازش زبان طبیعی نقش دارد، می‌توان کلیپ صوتی هر سیاستمداری را دستکاری کرد تا به نظر برسد که آن شخص نظریاتی نژادپرستانه یا جنسیتی را مطرح کرده است در صورتی که آن شخص چنین کاری را انجام نداده باشد. فورد افزود: اگر کیفیت کلیپ به اندازه‌ای بالا باشد که بتواند عموم مردم را فریب دهد و از شناسایی جلوگیری کند، می‌تواند «یک کمپین سیاسی را به طور کامل از خط خارج کند.»

تنها چیزی که لازم است یک موفقیت است. فورد تاکید می‌کند: از آن زمان به بعد، «هیچ کس نمی‌داند چه چیزی واقعی است و چه چیزی نیست. بنابراین این موضوع به موقعیتی می‌انجامد که به معنای واقعی کلمه نمی‌توانید چشم‌ها و گوش‌های خود را باور کنید. شما نمی‌توانید به آنچه که آن را از نظر تاریخی بهترین شواهد ممکن می‌دانیم تکیه کنید… این یک مسئله بزرگ خواهد بود.» قانونگذاران، گرچه اغلب کمتر از فناوری مطلع هستند، اما تا حد زیادی نسبت به این مسئله آگاه هستند و به دنبال راه حل می‌گردند.

سوگیری هوش مصنوعی و گسترش نابرابری اقتصادی-اجتماعی

افزایش نابرابری اجتماعی-اقتصادی که به دلیل از دست دادن شغل ناشی از وجود هوش مصنوعی به وجود می‌آید، یکی دیگر از دلایل نگرانی است. هوش مصنوعی جایگزین کارهای ساده و قابل تکراری می‌شود که معمولاً توسط افراد با میزان تحصیلات کمتر و توان اقتصادی پایین‌تر انجام می‌شوند. با وقوع این جایگزینی این افراد که تمایل کمتری به آموزش دارند و ثروت کافی برای راه‌اندازی شغل دیگری را هم ندارند، ناامید شده و ممکن است رفتارهای نامطلوبی از خود بروز بدهند.

اشکال مختلف سوگیری هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، اخیراً در گفتگو با نیویورک تایمز گفت که این امر بسیار فراتر از جنسیت و نژاد است. علاوه بر داده‌ها و سوگیری الگوریتمی، هوش مصنوعی توسط انسان توسعه یافته است و انسان‌ها ذاتاً رفتار مغرضانه دارند.

روساکوفسکی گفت: «محققان AI در درجه اول مردانی هستند که از جمعیت نژادی خاصی برخاسته‌اند و در مناطق اجتماعی و اقتصادی بالا رشد کرده‌اند. بنابراین اینکه این افراد بتوانند مسائل اقشار مختلف پراکنده در سراسر جهان را مدنظر قرار بدهند، یک چالش است.»

تیمنیت گبرو، محقق گوگل در همان مقاله گفت که ریشه سوگیری بیشتر اجتماعی است تا مربوط به فناوری. او می‌گوید: «حوزه علمی باید در تلاش برای درک پویایی‌های اجتماعی جهان باشد، زیرا بیشتر تغییرات اساسی در سطح اجتماعی اتفاق می‌افتد.»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

تازه ترین مقالات

درخبرنامه ما عضو بشوید...

برای دریافت جدیدترین مقالات، رویداد ها و نکات تخصصی در زمینه دیجیتال مارکتینگ، همین حالا عضو خبرنامه فایند مارکت بشوید.

پربازدیدترین مقالات