8 ریسک و خطر هوش مصنوعی
همانطور که هوش مصنوعی پیچیده تر و گسترده تر می شود، صداهای هشدار نسبت به خطر هوش مصنوعی بلندتر می شوند.
به گفته استیون هاوکینگ، توسعه هوش مصنوعی می تواند پایان نسل بشر باشد.
فیزیکدان نظری مشهور با این فکر تنها نیست.
ایلان ماسک، بنیانگذار تسلا و اسپیس ایکس، زمانی در کنفرانس فناوری SXSW گفت: «[هوش مصنوعی] من را می ترساند. این توانایی بسیار بیشتر از چیزی است که تقریباً هر کسی میداند، و میزان بهبود آن به صورت تصاعدی است.»
خواه این اتوماسیون فزاینده مشاغل خاص باشد، الگوریتمهای مغرضانه جنسیتی و نژادی یا سلاحهای مستقلی که بدون نظارت انسان عمل میکنند (فقط به نام چند مورد)، نگرانی در تعدادی از جبههها وجود دارد. و ما هنوز در مراحل اولیه توانایی هوش مصنوعی هستیم.
خطر هوش مصنوعی
- از دست دادن شغل ناشی از اتوماسیون
- نقض حریم خصوصی
- دیپ فیکس
- سوگیری الگوریتمی ناشی از داده های بد
- نابرابری اجتماعی و اقتصادی
- نوسانات بازار
- خودکارسازی سلاح ها
8 خطر هوش مصنوعی
سوالاتی در مورد اینکه چه کسی هوش مصنوعی را توسعه میدهد? و برای چه اهدافی، درک نکات منفی بالقوه آن را ضروریتر میکند.
در زیر نگاهی دقیق تر به خطرات احتمالی هوش مصنوعی می اندازیم و چگونگی مدیریت خطرات آن را بررسی می کنیم.
آیا هوش مصنوعی یک تهدید محسوب می شود؟
جامعه فناوری مدت هاست در مورد تهدیدات ناشی از هوش مصنوعی بحث کرده است. اتوماسیون مشاغل، انتشار اخبار جعلی و مسابقه تسلیحاتی خطرناک تسلیحات مجهز به هوش مصنوعی به عنوان برخی از بزرگترین خطرات ناشی از هوش مصنوعی ذکر شده است.
خطر هوش مصنوعی 1. از دست دادن شغل به دلیل اتوماسیون هوش مصنوعی
اتوماسیون شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی پذیرفته شده است. انتظار میرود بین سالهای 2020 تا 2025، هشتاد و پنج میلیون شغل به دلیل اتوماسیون از بین برود و کارمندان سیاهپوست و لاتین تبار بهویژه آسیبپذیر باشند.
مارتین فورد، آیندهنگر به Built In گفت: «دلیل اینکه نرخ بیکاری پایینی داریم، که در واقع افرادی را که به دنبال کار نیستند جذب نمیکند، عمدتاً این است که مشاغل بخش خدمات با دستمزد پایینتر به شدت توسط این اقتصاد ایجاد شده است. . “من فکر نمی کنم که این موضوع ادامه پیدا کند.”
همانطور که رباتهای هوش مصنوعی باهوشتر و ماهرتر میشوند، همان وظایف به انسانهای کمتری نیاز دارند. و در حالی که درست است که هوش مصنوعی تا سال 2025 97 میلیون شغل جدید ایجاد خواهد کرد، بسیاری از کارمندان مهارت های مورد نیاز برای این نقش های فنی را نخواهند داشت و اگر شرکت ها نیروی کار خود را ارتقاء ندهند، ممکن است عقب بمانند.
«اگر در مکدونالدز همبرگر میچرخانید و اتوماسیون بیشتری وارد میشود، آیا یکی از این مشاغل جدید برای شما مناسب است؟» فورد گفت. «یا این احتمال وجود دارد که شغل جدید به آموزش یا آموزش زیاد یا حتی استعدادهای درونی – مهارتهای بین فردی یا خلاقیت واقعاً قوی – نیاز دارد که ممکن است نداشته باشید؟ زیرا اینها چیزهایی هستند که، حداقل تا کنون، کامپیوترها در آنها خیلی خوب نیستند.”
حتی مشاغلی که به مدارک تحصیلات تکمیلی و آموزش اضافی پس از کالج نیاز دارند، از جابجایی هوش مصنوعی مصون نیستند.
همانطور که کریس مسینا، استراتژیست فناوری اشاره کرده است، رشته هایی مانند قانون و حسابداری برای تصاحب هوش مصنوعی آماده شده اند. مسینا گفت در واقع ممکن است برخی از آنها از بین بروند. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی دارد. مسینا گفت که قانون و حسابداری در رتبه های بعدی قرار دارند.
او در رابطه با حوزه حقوقی گفت: «به پیچیدگی قراردادها فکر کنید، و واقعاً غواصی کنید و درک کنید که برای ایجاد یک ساختار معاملاتی عالی چه چیزی لازم است. بسیاری از وکلا اطلاعات زیادی را مطالعه می کنند – صدها یا هزاران صفحه داده و اسناد. از دست دادن چیزها واقعاً آسان است. بنابراین هوش مصنوعی که این توانایی را دارد که بهترین قرارداد ممکن را برای نتیجه ای که می خواهید به دست آورید به طور جامع ارائه دهد، احتمالاً جایگزین بسیاری از وکلای شرکت خواهد شد.”
خطر هوش مصنوعی 2. دستکاری اجتماعی از طریق الگوریتم های هوش مصنوعی
گزارشی در سال 2018 در مورد سوء استفاده های احتمالی از هوش مصنوعی، دستکاری اجتماعی را به عنوان یکی از خطرات اصلی هوش مصنوعی فهرست می کند. این ترس به واقعیت تبدیل شده است زیرا سیاستمداران برای ترویج دیدگاههای خود به پلتفرمها تکیه میکنند، نمونه اخیر آن فردیناند مارکوس جونیور است که از ارتش ترول TikTok استفاده میکند تا آرای فیلیپینیهای جوان را در انتخابات 2022 به دست آورد.
TikTok بر روی یک الگوریتم هوش مصنوعی اجرا میشود که فید کاربر را با محتوای مرتبط با رسانههای قبلی که در پلتفرم مشاهده کردهاند اشباع میکند. انتقاد از برنامه این فرآیند و شکست الگوریتم در فیلتر کردن محتوای مضر و نادرست را هدف قرار میدهد و شک و تردیدهایی را در مورد توانایی TikTok برای محافظت از کاربرانش در برابر رسانههای خطرناک و گمراهکننده ایجاد میکند.
رسانه ها و اخبار آنلاین با توجه به نفوذ دروغین در حوزه های سیاسی و اجتماعی حتی تیره تر شده اند. این فناوری جایگزینی تصویر یک فیگور با دیگری را در یک تصویر یا ویدیو آسان می کند. در نتیجه، بازیگران بد راه دیگری برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات جنگی دارند و یک سناریوی کابوس ایجاد میکنند که در آن تشخیص اخبار معتبر و ناقص تقریبا غیرممکن است.
فورد گفت: «هیچکس نمی داند چه چیزی واقعی است و چه چیزی نیست. بنابراین واقعاً به موقعیتی منجر میشود که به معنای واقعی کلمه نمیتوانید چشمها و گوشهای خود را باور کنید. شما نمی توانید به آنچه، از نظر تاریخی، بهترین شواهد ممکن در نظر گرفته ایم، تکیه کنید… این یک مسئله بزرگ خواهد بود.»
خطر هوش مصنوعی 3. نظارت اجتماعی با فناوری هوش مصنوعی
فورد علاوه بر تهدید وجودی بیشتر، بر روی روشی که هوش مصنوعی بر حریم خصوصی و امنیت تأثیر منفی میگذارد، متمرکز است. نمونه بارز استفاده چین از فناوری تشخیص چهره در ادارات، مدارس و سایر مکانها است. علاوه بر ردیابی حرکات یک فرد، دولت چین ممکن است بتواند داده های کافی برای نظارت بر فعالیت ها، روابط و دیدگاه های سیاسی یک فرد جمع آوری کند.
مثال دیگر ادارات پلیس ایالات متحده است که از الگوریتم های پلیس پیش بینی برای پیش بینی محل وقوع جنایات استفاده می کنند. مشکل این است که این الگوریتمها تحتتاثیر نرخهای دستگیری قرار میگیرند، که بهطور نامتناسبی بر جوامع سیاهپوست تأثیر میگذارد. سپس ادارات پلیس این جوامع را دوچندان می کنند که منجر به پلیس بیش از حد و سؤال در مورد اینکه آیا دموکراسی های خودخوانده می توانند در برابر تبدیل هوش مصنوعی به یک سلاح اقتدارگرا مقاومت کنند یا خیر.
فورد گفت: «رژیم های استبدادی از آن استفاده می کنند یا می خواهند استفاده کنند. سوال این است که چقدر به کشورهای غربی، دموکراسیها حمله میکند و چه محدودیتهایی برای آن قائل میشویم؟
خطر هوش مصنوعی 4. تعصبات ناشی از هوش مصنوعی
اشکال مختلف سوگیری هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در گفتگو با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. علاوه بر داده ها و سوگیری الگوریتمی (که دومی می تواند اولی را “تقویت” کند)، هوش مصنوعی توسط انسان ها توسعه یافته است – و انسان ها ذاتاً سوگیری دارند.
“A.I. روساکوفسکی گفت: محققان عمدتاً مردانی هستند که از جمعیتهای نژادی خاص میآیند، در مناطق اجتماعی-اقتصادی بالا بزرگ شدهاند، در درجه اول افراد بدون معلولیت. ما جمعیت نسبتاً همگنی هستیم، بنابراین فکر کردن به طور گسترده در مورد مسائل جهانی یک چالش است.»
تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجهها و لهجههای خاصی را درک نمیکند، یا چرا شرکتها عواقب یک ربات چت را که جعل هویت چهرههای بدنام در تاریخ بشر است، در نظر نمیگیرند. توسعهدهندگان و کسبوکارها باید دقت بیشتری به خرج دهند تا از بازآفرینی سوگیریها و پیشداوریهای قدرتمندی که جمعیت اقلیتها را در معرض خطر قرار میدهد، اجتناب کنند.
5. گسترش نابرابری اجتماعی-اقتصادی در نتیجه هوش مصنوعی
اگر شرکتها از پذیرش سوگیریهای ذاتی موجود در الگوریتمهای هوش مصنوعی خودداری کنند، ممکن است ابتکارات DEI خود را از طریق استخدام مبتنی بر هوش مصنوعی به خطر بیاندازند. این ایده که هوش مصنوعی میتواند ویژگیهای یک نامزد را از طریق تجزیه و تحلیلهای چهره و صدا اندازهگیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوههای استخدام تبعیضآمیز را بازتولید میکند که مشاغل ادعا میکنند حذف میکنند.
گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل ناشی از هوش مصنوعی یکی دیگر از دلایل نگرانی است که سوگیری های طبقاتی در مورد نحوه به کارگیری هوش مصنوعی را آشکار می کند. کارگران یقه آبی که کارهای دستی و تکراری بیشتری انجام می دهند، به دلیل اتوماسیون، کاهش دستمزدشان را تا 70 درصد تجربه کرده اند. در همین حال، کارگران یقه سفید تا حد زیادی دست نخورده باقی مانده اند و حتی برخی از آنها از دستمزد بالاتری برخوردار هستند.
ادعاهای فراگیر مبنی بر اینکه هوش مصنوعی به نوعی بر مرزهای اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمی تواند تصویر کاملی از اثرات آن ارائه دهد. در نظر گرفتن تفاوت ها بر اساس نژاد، طبقه و سایر دسته ها بسیار مهم است. در غیر این صورت، تشخیص اینکه هوش مصنوعی و اتوماسیون چگونه به ضرر افراد و گروههای خاص به نفع دیگران است، دشوارتر میشود.
6. تضعیف اخلاق و حسن نیت به دلیل هوش مصنوعی
همراه با فنآوران، روزنامهنگاران و شخصیتهای سیاسی، حتی رهبران مذهبی نیز زنگ خطرات احتمالی اجتماعی-اقتصادی هوش مصنوعی را به صدا در میآورند. پاپ فرانسیس در یک نشست واتیکان در سال 2019 با عنوان “خیر مشترک در عصر دیجیتال” نسبت به توانایی هوش مصنوعی برای “انتشار عقاید متعصبانه و داده های نادرست” هشدار داد و بر عواقب گسترده اجازه توسعه این فناوری بدون نظارت یا محدودیت مناسب تاکید کرد.
او افزود: «اگر بهاصطلاح پیشرفتهای فنآوری بشر به دشمن خیر عمومی تبدیل شود، این امر منجر به قهقرایی ناگوار به نوعی بربریت میشود که توسط قانون قویترین دیکته میشود.»
ظهور سریع ابزار مکالمه هوش مصنوعی ChatGPT به این نگرانی ها بیشتر می بخشد. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کرده اند که یکپارچگی و خلاقیت تحصیلی را تهدید می کند. و حتی در تلاش برای کمتر سمی کردن ابزار، OpenAI از کارگران کنیایی که حقوق کمتری دریافت میکردند برای انجام این کار بهرهبرداری کرد.
برخی از این بیم دارند که، مهم نیست که چه تعداد از شخصیتهای قدرتمند به خطرات هوش مصنوعی اشاره میکنند، اگر پولی برای دستیابی به درآمد وجود داشته باشد، ما همچنان با آن فشار میآوریم.
ذهنیت این است که اگر بتوانیم آن را انجام دهیم، باید آن را امتحان کنیم. بیایید ببینیم چه اتفاقی می افتد،” مسینا گفت. «و اگر بتوانیم از آن پول دربیاوریم، کلی از آن را انجام خواهیم داد.» اما این منحصر به فناوری نیست. این برای همیشه اتفاق افتاده است.»
7. سلاح های خودگردان با قدرت هوش مصنوعی
همانطور که اغلب اتفاق می افتد، پیشرفت های تکنولوژیک برای اهداف جنگی مهار شده است. وقتی صحبت از هوش مصنوعی به میان میآید، برخی تمایل دارند تا قبل از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در نامهای سرگشاده در سال 2016، بیش از 30000 نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایهگذاری در سلاحهای خودران با سوخت هوش مصنوعی عقبنشینی کردند.
آنها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر است و نقطه پایانی این خط سیر فناوری آشکار است: سلاحهای خودمختار به کلاشینکفهای فردا تبدیل خواهند شد.»
این پیشبینی در قالب سیستمهای تسلیحاتی خودمختار مرگبار محقق شد که با رعایت مقررات کمی اهداف را بهتنهایی شناسایی و نابود میکنند. به دلیل گسترش سلاحهای قوی و پیچیده، برخی از قدرتمندترین کشورهای جهان تسلیم نگرانیها شدهاند و به جنگ سرد فناوری کمک کردهاند.
بسیاری از این سلاحهای جدید خطرات عمدهای را برای غیرنظامیان در زمین ایجاد میکنند، اما این خطر زمانی تشدید میشود که سلاحهای خودمختار به دست افراد اشتباه بیفتند. هکرها بر انواع مختلفی از حملات سایبری تسلط یافته اند، بنابراین تصور اینکه یک بازیگر مخرب به سلاح های خود مختار نفوذ کند و آرماگدون مطلق را تحریک کند، سخت نیست.
اگر رقابتهای سیاسی و تمایلات جنگافروز کنترل نشود، هوش مصنوعی ممکن است با بدترین نیتها به کار گرفته شود.
8. بحران های مالی ناشی از الگوریتم های هوش مصنوعی
صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی می تواند مسئول بحران مالی بعدی ما در بازارها باشد.
در حالی که الگوریتمهای هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمیگیرند، اما زمینهها، به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را نیز در نظر نمیگیرند. سپس این الگوریتمها هزاران معامله را با سرعتی تاولآمیز انجام میدهند و هدفشان این است که چند ثانیه بعد به سودهای کوچک بفروشند. فروختن هزاران معامله می تواند سرمایه گذاران را از انجام همین کار بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود.
مواردی مانند سقوط فلش در سال 2010 و سقوط فلش نایت کپیتال به عنوان یادآوری میکنند که وقتی الگوریتمهای شاد از تجارت از بین میروند، صرف نظر از اینکه معاملات سریع و گسترده عمدی باشد، چه اتفاقی میافتد.
این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم های هوش مصنوعی می توانند به سرمایه گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه تری در بازار بگیرند. اما سازمانهای مالی باید مطمئن شوند که الگوریتمهای هوش مصنوعی و نحوه تصمیمگیری آن الگوریتمها را درک میکنند. شرکتها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایهگذاران و ایجاد هرج و مرج مالی، در نظر بگیرند که آیا هوش مصنوعی اعتماد آنها را بالا میبرد یا کاهش میدهد.
کاهش خطرات هوش مصنوعی
هوش مصنوعی همچنان دارای مزایای بی شماری است، مانند سازماندهی داده های سلامتی و تقویت خودروهای خودران. با این حال، برخی استدلال می کنند که برای استفاده حداکثری از این فناوری امیدوارکننده، مقررات زیادی لازم است.
راه هایی برای کاهش خطر هوش مصنوعی
- تدوین مقررات ملی و بین المللی.
- ایجاد استانداردهای سازمانی برای استفاده از هوش مصنوعی.
- هوش مصنوعی را به بخشی از فرهنگ و بحث های شرکت تبدیل کنید.
- فناوری را با دیدگاه های علوم انسانی آگاه کنید.
ماسک در جریان سخنرانی خود در SXSW در سال 2018 گفت: “من معمولاً طرفدار مقررات و نظارت نیستم – فکر می کنم معمولاً باید در سمت به حداقل رساندن این موارد اشتباه کرد – اما این موردی است که شما یک خطر بسیار جدی برای مردم دارید.” . «این باید یک نهاد عمومی باشد که بینش و سپس نظارت داشته باشد تا تأیید کند که همه در حال توسعه ایمن هوش مصنوعی هستند. این بسیار مهم است.»
مقررات هوش مصنوعی تمرکز اصلی دهها کشور بوده است و اکنون ایالات متحده و اتحادیه اروپا در حال ایجاد اقدامات واضحتر برای مدیریت گسترش هوش مصنوعی هستند. اگرچه این بدان معناست که برخی از فناوریهای هوش مصنوعی میتوانند ممنوع شوند، اما مانع از کاوش در این زمینه توسط جوامع نمیشود. حفظ روحیه آزمایش برای فورد حیاتی است، زیرا معتقد است هوش مصنوعی برای کشورهایی که به دنبال نوآوری و همگام با بقیه جهان هستند ضروری است.
“شما نحوه استفاده از هوش مصنوعی را تنظیم می کنید، اما پیشرفت در فناوری پایه را متوقف نمی کنید. فورد گفت: فکر میکنم این کار اشتباه و بالقوه خطرناک است. «ما تصمیم میگیریم که کجا هوش مصنوعی میخواهیم و کجا نه. جایی که قابل قبول است و کجا نیست. و کشورهای مختلف انتخاب های متفاوتی خواهند داشت.»
در این صورت نکته کلیدی تصمیم گیری در مورد نحوه اعمال هوش مصنوعی به شیوه ای اخلاقی است. در سطح شرکت، گامهای بسیاری وجود دارد که کسبوکارها میتوانند هنگام ادغام هوش مصنوعی در عملیات خود بردارند. سازمانها میتوانند فرآیندهایی را برای نظارت بر الگوریتمها، گردآوری دادههای با کیفیت بالا و توضیح یافتههای الگوریتمهای هوش مصنوعی توسعه دهند. رهبران حتی می توانند هوش مصنوعی را بخشی از فرهنگ شرکت خود کنند و استانداردهایی را برای تعیین فناوری های قابل قبول هوش مصنوعی ایجاد کنند.
اما وقتی صحبت از جامعه بهعنوان یک کل میشود، باید فشار بیشتری برای فناوری برای پذیرش دیدگاههای متنوع علوم انسانی وجود داشته باشد. محققین هوش مصنوعی دانشگاه استنفورد، فی فی لی و جان اچمندی، این استدلال را در یک پست وبلاگی در سال 2019 بیان کردند که خواستار رهبری ملی و جهانی در تنظیم هوش مصنوعی است:
خالقان هوش مصنوعی باید به دنبال بینش، تجربیات و نگرانی های مردم در سراسر قومیت ها، جنسیت ها، فرهنگ ها و گروه های اقتصادی-اجتماعی و همچنین افرادی از حوزه های دیگر مانند اقتصاد، حقوق، پزشکی، فلسفه، تاریخ، جامعه شناسی، ارتباطات باشند. ، تعامل انسان و کامپیوتر، روانشناسی و مطالعات علم و فناوری (STS).
ایجاد تعادل بین نوآوری در فناوری پیشرفته و تفکر انسان محور، روشی ایده آل برای تولید فناوری مسئولانه و اطمینان از اینکه آینده هوش مصنوعی برای نسل بعدی امیدوار است. خطرات هوش مصنوعی همیشه باید موضوع بحث باشد، بنابراین رهبران می توانند راه هایی را برای استفاده از این فناوری برای اهداف عالی بیابند.
فورد گفت: “من فکر می کنم ما می توانیم در مورد همه این خطرات صحبت کنیم، و آنها بسیار واقعی هستند.” اما هوش مصنوعی همچنین مهمترین ابزار در جعبه ابزار ما برای حل بزرگترین چالش هایی است که با آن روبرو هستیم.
منبع Built In