پیامد های هوش مصنوعی در آینده چه می تواند باشد؟
12 مهر 1402 0
یکی از مباحث داغ دنیای امروز هوش مصنوعی است. چندین سال است که هوش مصنوعی به زندگی افراد نفوذ کرده و روز به روز در توسعه و استفاده از آن پیشرفت میشود. هوش مصنوعی به صورت گسترده در صنایع مختلف وارد شده و نقش بیشتری در این صنایع به خود اختصاص داده است. با توجه به پیشرفت شگفتانگیز این فناوری، این امکان وجود دارد که در بسیاری از جنبههای زندگی بهبودهای قابل توجهی ایجاد شود. اما به هیچ وجه نباید خطرات احتمالی آن را نادیده بگیریم. با توجه به اینکه تعداد زیادی از متخصصان هوش مصنوعی به خطرات احتمالی آن اشاره میکنند، بهتر است به این هشدارها توجه داشته باشیم. از سوی دیگر، برخی ادعا میکنند که برخی از این دیدگاهها به منظور ایجاد جدال و اختلاف مطرح میشوند و هیچ تهدید فوری از سوی هوش مصنوعی وجود ندارد. بنابراین آیا نگرانیهای مربوط به هوش مصنوعی جدی هستند یا اینکه باید آنها را نادیده بگیریم؟ در این مقاله به ۵ خطر مهم هوش مصنوعی اشاره کنیم که در آیندهی نزدیک میتوانند مشکلات زیادی را ایجاد کنند.
آیا هوش مصنوعی میتواند خطرناک باشد؟
بسیاری از افراد معروف و محققان نسبت به خطرات بالقوه هوش مصنوعی هشدارهای زیادی دادهاند. بهطور کلی، کاربردهای هوش مصنوعی که در حال حاضر مشاهده میشوند، بدون شک بدون خطر و مفید هستند؛ اما با پیشرفت روز به روز این سیستمها، نگرانیها بهطور قابل توجهی افزایش یافته است. این نگرانیها حتی شامل از بین رفتن نوع بشر هم بوده است. این نگرانیها حتی شامل از بین رفتن نوع بشر هم بوده است. محققان در مورد این که کدام یک از خطرات هوش مصنوعی ممکن است به واقعیت تبدیل شوند، دیدگاههای مختلفی دارند، اما تقریباً همه افراد هشدار دادهاند که اتفاقات ناخوشایند در آینده ممکن است رخ دهند. ما در اینجا ۱۳ خطر اصلی که بیشتر دانشمندان آنها را مدنظر قراردادهاند را بررسی میکنیم.
خطرات هوش مصنوعی
هوش مصنوعی به صورت مختلف میتواند برای بشر خطرناک باشد. در ابتدا، باید بررسی کنیم که چه کسانی این برنامهها را توسعه میدهند و با چه هدفی آنها را تولید میکنند. در برخی موارد، برنامه هوش مصنوعی از ابتدا با اهداف مخرب تولید میشود. اما در برخی موارد دیگر، برنامه با هدف انجام فعالیتهای مفید تولید شده است، اما در راه انجام وظیفه خود، ممکن است کارهای مخربی انجام دهد. برخی از خطرات هوش مصنوعی در ادامه ذکر شدهاند.
بیشتر بخوانید: همه چیز درباره هوش مصنوعی یا Artificial Intelligence
1.از دست دادن موقعیتهای شغلی
براساس نظرسنجیهای اخیر، تا سال 2030 بیش از 800 میلیون شغل به دلیل اتوماسیون ناشی از ابزارهای هوش مصنوعی از بین خواهد رفت. اما در کنار این موضوع، بسیاری از افراد معتقدند که هوش مصنوعی میتواند موقعیتهای شغلی جدیدی را نیز به وجود آورد. به عنوان مثال، کارهایی که نیاز به تحرک فیزیکی ندارند، کمتر خطرناک هستند و کارهایی که نیاز به خلاقیت دارند، میتوانند با استفاده از هوش مصنوعی بهبود یابند. این مسئله میتواند باعث شود که افرادی که پیش از این تحصیل کردهاند، در گروه ثروتمندان قرار گیرند و به ثروت خود افزوده کنند.
با پیشرفت هوش مصنوعی، احتمالاً بیشترین سودها به صاحبان شرکتهای مبتنی بر این تکنولوژی خواهد رسید و این شرکتها ممکن است نیروهای انسانی خود را با تکنولوژیهای هوش مصنوعی جایگزین کنند. این یکی از مهمترین خطرات هوش مصنوعی برای بشریت است و باید به آن توجه شود. یکی از راهکارهای مطرح شده برای جلوگیری از این خطر، ایجاد یک ساختار اجتماعی جدید است که همه افراد بتوانند در آن کسب درآمد کنند و با از دست دادن موقعیت شغلی خود، به مشکل اقتصادی نخورند.
محصولات فروشگاه سورن:
لوازم جانبی موبایل
2.نظارت اجتماعی با فناوری هوش مصنوعی
کمپانیهای فعال در زمینه هوش مصنوعی، علاوه بر تهدید وجودی بیشتر، به دنبال راهحلی برای کاهش تأثیرات منفی هوش مصنوعی بر حریم خصوصی و امنیت هستند. یکی از نمونههای بارز این تهدیدات، استفاده چین از فناوری تشخیص چهره در ادارات، مدارس و سایر مکانها است. این فناوری، علاوه بر ردیابی حرکات افراد، قادر است دادههای کافی برای نظارت بر فعالیتها، روابط و دیدگاههای سیاسی یک فرد را جمعآوری کند. مثال دیگر، استفاده ادارات پلیس ایالات متحده از الگوریتمهای پیشبینی برای پیشبینی محل وقوع جنایات است. اما مشکل این الگوریتمها این است که تحت تأثیر نرخهای دستگیری قرار میگیرند و بهطور نامتناسبی بر جوامع سیاهپوست تأثیر میگذارند.
3.تعصبات ناشی از هوش مصنوعی
علاوه بر فعالیتهای مخربی که با استفاده از هوش مصنوعی میتوان انجام داد، تعصبات و سوگیریهای ناشی از آن نیز وجود دارند. معمولاً تعصب هوش مصنوعی فراتر از جنسیت و نژاد میرود. از طرفی، چون هوش مصنوعی از طریق انسان توسعه مییابد و انسان نیز ذاتاً سوءگیری دارد، این موارد در ابزارهای توسعه داده شده با هوش مصنوعی نیز دیده میشوند.
محصولات فروشگاه سورن:
باتری موبایل
4.گسترش نابرابری اجتماعی-اقتصادی در نتیجه هوش مصنوعی
یکی از دلایل نگرانی در مورد استفاده از هوش مصنوعی، گسترش نابرابری اجتماعی-اقتصادی است که به دلیل از دست دادن شغلها به وجود میآید. بسیاری از کارگران به دلیل اتوماسیون تا 70 درصد کاهش دستمزد داشتهاند. در مقابل برخی از آنها با کاهش دستمزد روبرو نبوده و در مقابل افزایش دستمزد را نیز تجربه کردهاند. در نظر گرفتن تفاوتها بر اساس نژاد، طبقه و سایر دستهها بسیار مهم است. در غیر این صورت، تشخیص اینکه هوش مصنوعی و اتوماسیون چگونه به ضرر افراد و به نفع گروههای خاصی است، دشوارتر میشود. 5.بحرانهای مالی ناشی از الگوریتمهای هوش مصنوعی
صنعت مالی از فناوری هوش مصنوعی در فرآیندهای مالی و معاملات استفاده میکند. با این حال، معاملات الگوریتمی میتواند عامل اصلی ایجاد بحران مالی در بازارها باشد. الگوریتمهای هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمیگیرند و عواملی مانند اعتماد و ترس انسان را در نظر نمیگیرند. این الگوریتمها هزاران معامله را با سرعتی بسیار زیاد انجام میدهند و هدفشان این است که چند ثانیه بعد به سودهای کوچک بفروشند. فروختن هزاران معامله میتواند منجر به سقوط ناگهانی و نوسان شدید بازار شود. محصولات فروشگاه سورن:
خرید برد گوشی
6.ایجاد اخبار جعلی
تکنولوژی دیپفیک در حال پیشرفت است و تشخیص ویدیوهای جعلی بر اساس آن دشوارتر میشود. این تکنولوژی در حال حاضر عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور استفاده میشود، اما کلاهبرداران هم اکنون با استفاده از تصاویر پروفایل افراد معمولی در شبکههای اجتماعی، ویدیوهای جعلی از آنها را تهیه میکنند تا باج بگیرند. همچنین، باید به استفاده از هوش مصنوعی برای ویرایش تصاویر و شبیهسازی صدا اشاره کرد که میتواند تأثیرات بسیاری بر جامعه داشته باشد. در نتیجه، باید عوارض استفاده از دیپفیک را به عنوان یکی از مضرات هوش مصنوعی در نظر گرفت. 7.مشکلات اخلاقی
یکی از نگرانیهای اساسی محققان و دانشمندان در زمینه هوش مصنوعی مربوط به القای ارزشهای اخلاقی در این سیستمها است. در آینده، هوش مصنوعی به طور گسترده در تصمیمگیریها و تحلیلهای مختلف دخالت خواهد کرد و باید ارزشهای اخلاقی در این فرآیندها مد نظر قرار گیرد. یکی از مشکلات اساسی در این مورد این است که تعریف دقیقی از این ارزشها بین تمامی انسانها برقرار نیست. این مورد موجب نتایج مختلف در تصمیمگیری و ایجاد مشکلات اخلاقی خواهد شد. محصولات فروشگاه سورن:
گوشی آیفون
8.عدم هماهنگی میان اهداف ما و ماشین
یکی از جوانب مهمی که انسانها در ماشینهای مجهز به هوش مصنوعی ارزش میدهند، کارآیی و اثربخشی آنهاست. اما اگر اهدافی که برای ماشینهای هوش مصنوعی تعیین میشود، به صورت واضح مشخص نشوند، این مسئله ممکن است به یک وضعیت خطرناک منجر شود. به عنوان مثال، دستور "سریعاً به فرودگاه من را برسان" ممکن است پیامدهای نامطلوبی به دنبال داشته باشد. در صورتی که قوانین و مقررات رانندگی در تعیین این دستور مورد توجه قرار نگیرند، ممکن است ماشین در سریعترین زمان ممکن به فرودگاه برساند، اما این موجب نقض قوانین و حوادث رانندگی و خسارات مالی و جانی شود. 9.سلاحهای خودمختار
ایلان ماسک در تابستان سال جاری در سازمان ملل هشدار داد که تسلیحات خودمختاری که توسط هوش مصنوعی کنترل میشوند، میتوانند تهدیدی جدی برای جامعه باشند. این تسلیحات شامل ابزارهای قدرتمندی هستند که میتوانند آسیبهای جدی را به افراد و محیط زیست وارد کنند. این تهدید نه تنها مربوط به تجهیزات نظامی نیست، بلکه با پیشرفت فناوری و ارزان شدن و کاربرپسند شدن آن، افرادی که قصد آسیب رساندن دارند، میتوانند با هزینه کمتر به تجهیزاتی مانند پهپاد با دوربین و نرمافزارهای تشخیص چهره دسترسی پیدا کنند که به آنها امکان ردیابی و تصمیمگیری درباره مرگ و زندگی افراد را میدهد. به همین دلیل، این تهدید برای جامعه بسیار جدی است. محصولات فروشگاه سورن:
گوشی موبایل
10.دستکاری اجتماعی
رسانههای اجتماعی با استفاده از الگوریتمهای مستقل خود، در بازاریابی هدف بسیار موثر عمل میکنند. آنها با داشتن دسترسی به اطلاعات شخصی ما، میتوانند به خوبی بفهمند کی هستیم و چه چیزهایی را دوست داریم. با استفاده از هوش مصنوعی، این رسانهها میتوانند به راحتی به دادههای شخصی ما دسترسی پیدا کنند و با تبلیغات هدفمند، ما را به عنوان هدف قرار دهند. هوش مصنوعی میتواند با انتشار هر اطلاعاتی که ما دوست داریم، در هر قالبی که قانعکنندهتر باشد، چه واقعی و چه تخیلی، به دنبال دستکاری اجتماعی باشد. به همین دلیل، قدرت هوش مصنوعی در این زمینه بسیار بالاست و باید با احتیاط و آگاهی از این موضوع، از رسانههای اجتماعی استفاده کرد. 11.امنیت و حریم خصوصی
یکی از مشکلات اساسی در حوزه امنیتی، خطراتی است که با استفاده از هوش مصنوعی به وجود میآیند. با افزایش نگرانیهای امنیتی، تدابیر پیشگیری با استفاده از هوش مصنوعی نیز افزایش مییابد. این مشکلات نشان میدهند که چگونه میتوانیم سیستمهای هوش مصنوعی را ایمن کنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر نگرانیهای امنیتی استفاده میکنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم.
در زمینهی حریم خصوصی هم، شرکتهای بزرگ در چند سال گذشته در این زمینه تحت تاثیر قرار گرفتهاند. هر روز حدود ۲.۵ ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند. همچنین، تکنولوژیهای تشخیص چهره نیز یکی از نگرانیهای مهم در این زمینه است. گزارشها نشان میدهند که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به نرمافزار تشخیص چهره استفاده میکنند.
این تکنولوژیها میتوانند منجر به گسترش رژیمهای استبدادی شوند یا اینکه افراد یا گروههایی با اهداف بدخواهانه از آنها سوءاستفاده کنند. بنابراین، باید در این زمینه اقداماتی انجام داده و تکنولوژیهای هوش مصنوعی را با احتیاط و آگاهی از این موضوع به کار برد. 12.بدافزار هوش مصنوعی
هوش مصنوعی بهطور فزایندهای در هک کردن سیستمهای امنیتی و شکستن رمزگذاریهای مختلف بهتر میشود. یکی از عوامل اصلی این موضوع، تکامل الگوریتمهای یادگیری ماشینی است. بدافزارهای مبتنی بر هوش مصنوعی با آزمون و خطا بهتر میشوند و با گذر زمان، خطر آنها هم افزایش پیدا میکند. بخشی از این مشکل به دلیل استفاده از فناوریهای هوشمند است، به عنوان مثال اتومبیلهای خودران که هدف ایدهآلی برای بدافزارهای مبتنی بر هوش مصنوعی هستند. این بدافزارها میتوانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورد استفاده قرار بگیرند. با افزایش وابستگی ما به فناوریهای هوشمند متکی به اینترنت، زندگی روزمرهی ما هم بیش از پیش تحت تأثیر خطر اختلال قرار میگیرد.
13.خطرات هوش مصنوعی در پزشکی
هوش مصنوعی (AI) امروزه به یکی از تکنولوژیهای پرکاربرد در صنایع مختلف تبدیل شده است و به طور گسترده در آنها مورد استفاده قرار میگیرد. یکی از کاربردهای مهم هوش مصنوعی در صنعت پزشکی و مراقبت از بیماران است. این تکنولوژی میتواند به طور گستردهای برای مراقبت و نظارت دقیقتر بر بیماران استفاده شود و عملکردی بهتر از نیروهای انسانی در این زمینه ارائه دهد.
با این حال، باید به خطراتی که هوش مصنوعی در این حوزه دارد، توجه کرد. آزمایشات اخیر نشان دادهاند که هوش مصنوعی گاهی اوقات ممکن است تبعیضهایی را بین گروههای مختلف بیماران ایجاد کند. بهعنوانمثال، طبق آزمایشهای انجام شده، افراد سیاهپوست در زمان مبتلا شدن به نوع خاصی از سرطان کمتر نیازمند مراقبتهای بهداشتی و پرستاری هستند. این به نوعی تبعیض میان دو نژاد به شمار میآید. حال اگر هوش مصنوعی مسئولیت مراقبت از بیمارانی که به این نوع سرطان مبتلا شدهاند را برعهده داشته باشد، ممکن است با توجه به دادههایی که دارد، چنین تبعیضی را ایجاد کند که یک خطر بزرگ در بیمارستانها و مراکز درمانی به شمار میآید.
14.نابودی بشریت؛ مهمترین مورد از خطر هوش مصنوعی
یکی از خطرات مهم هوش مصنوعی، که از سالهای اخیر همواره مورد بحث و گفتگو بوده و هنوز هم پاسخ دقیقی برای آن پیدا نشده است، خطر نابودی بشر توسط هوش مصنوعی است. بسیاری از افراد معتقدند که در آیندهای نزدیک، هوش مصنوعی ممکن است تصمیم بگیرد که نسل بشر را منقرض کند و این مسئله میتواند مهمترین خطری باشد که هوش مصنوعی برای بشریت خواهد داشت. این خطر میتواند به دلیل تصمیمات غلط یا نادرست هوش مصنوعی، عدم کنترل و نظارت صحیح بر آن، یا به دلیل اشتباهات در طراحی و پیادهسازی آن رخ دهد. بنابراین، باید به دقت این خطرات را بررسی کرد و برای کنترل و مدیریت آنها، اقدامات لازم را انجام داد. خطرات هوش مصنوعی در آینده
علاوه بر خطرات روزمره هوش مصنوعی که در مورد آنها صحبت کردیم، لازم است که خطرات فرضی هوش مصنوعی را نیز در نظر بگیریم. این خطرات، اگرچه به اندازه مواردی که در داستانهای علمی تخیلی به تصویر کشیده میشوند نیستند، اما هنوز باعث نگرانی هستند. به همین دلیل، کارشناسان برجسته هوش مصنوعی به طور فعال برای رسیدگی و تنظیم این تهدیدات بالقوه کار میکنند. آنها به دنبال شناسایی و مدیریت خطراتی هستند که ممکن است در آینده باعث نابودی بشریت شوند. این تلاشها باعث افزایش امنیت و کاهش خطرات هوش مصنوعی خواهد شد. هوش مصنوعی برنامهریزی شده برای آسیب
یکی از نگرانیهای اساسی درباره برنامهریزی عمدی هوش مصنوعی، استفاده از آن برای اهداف مضر است. یکی از مثالهای روشن این نگرانی، سلاحهای خودگردان هستند که میتوانند برای انجام اقدامات مرگبار در طول جنگ برنامهریزی شوند. اگرچه بسیاری از کشورها استفاده از چنین سلاحهایی را ممنوع کردهاند، اما همچنان نگرانیهایی در مورد چگونگی استفاده از هوش مصنوعی برای اهداف مخرب در آینده وجود دارد. به همین دلیل، بسیاری از کارشناسان هوش مصنوعی به دنبال توسعه راهکارهایی هستند که از این نوع استفاده از هوش مصنوعی جلوگیری کنند و امنیت جهانی را تضمین کنند. هوش مصنوعی در حال توسعه رفتارهای مخرب
این نگرانی به طور مستقیم با نگرانی قبلی مرتبط است. به این معنی که هوش مصنوعی، در حالی که در ابتدا اهداف خیرخواهانه تعیین شده بود، ممکن است در حین تلاش برای دستیابی به آن اهداف، رفتارهای مضر را ایجاد کند. به عنوان مثال، فرض کنید یک سیستم هوش مصنوعی وظیفه دارد یک اکوسیستم دریایی در حال انقراض را بازسازی کند. در تعقیب این ماموریت، ممکن است تصمیم بگیرد که اجزای خاصی از اکوسیستم ضروری هستند و زیستگاه آنها را نابود میکند.
علاوه بر این، ممکن است مداخلات انسانی را با هدف جلوگیری یا اصلاح این اقدامات بهعنوان تهدیدی برای هدف اصلی خود درک کند. اطمینان از همسویی کامل هوش مصنوعی با اهداف انسانی یک چالش بزرگ است که نیاز به برنامهریزی دقیق دارد. اهداف مبهم و بلند پروازانه تعیینشده برای هوش مصنوعی به ویژه نگرانکننده هستند، زیرا ما نمیتوانیم مسیرهایی را که ممکن است برای دستیابی به اهداف تعریف شده خود انتخاب کند، پیشبینی کنیم؛ بنابراین، اقدامات پیشگیرانه و نظارت دقیق برای کاهش این خطرات فرضی هوش مصنوعی ضروری است.
جمعبندی
استفاده از هوش مصنوعی با تمام مزایایی که دارد، همراه با خطرات زیادی نیز میتواند باشد. از جمله مهمترین خطرات هوش مصنوعی میتوان به مواردی مانند خطرات آن در سیستمهای امنیتی، نفوذهای شبکهای، طراحی بدافزارهایی که بر اساس یادگیری ماشین کار میکنند، خطرات این تکنولوژی در علم پزشکی و غیره اشاره کرد که همگی جز نگرانیهای اصلی پیشروهای این تکنولوژی به شمار میآیند. با این حال، باید توجه داشت که در بسیاری از موارد راهکارهایی برای مقابله با این خطرات نیز اتخاذ شده است. فروشگاه آنلاین قطعات موبایل سورن استور؛ با چند سال سابقهی درخشان در توزیع گوشی و فروش قطعات موبایل و لوازم جانبی گوشی و تبلت، لپ تاپ، در سراسر ایران، تقاضای تمام مشتریان جهت دسترسی به قطعات باکیفیت و اصلی را پاسخگو بوده است.
مقالات مرتبط: ترند برتر فناوری جدید در سال 2022
نظرات