مردم با دیدن پیشرفت هوش مصنوعی این سوال در ذهنشان مطرح میشود که نتیجه نهایی چه خواهد شد و پیامد ابرهوش مصنوعی برای انسان چه خواهد بود؟
استیون هاوکینگ مدتی قبل از درگذشتش در یک سخنرانی در کنفرانسی در لیسبون پرتغال به شرکتکنندگان گفت که توسعه هوش مصنوعی ممکن است به بدترین رویداد تاریخ تمدن بشر تبدیل شود و وی دلایل زیادی برای این نگرانی دارد.
این فناوری توسط پژوهشگران هوش مصنوعی، اخلاق گرایان و دیگران به عنوان یک ابرهوش مصنوعی(ASI) شناخته شده است و توانایی تبدیل شدن به قدرتمندترین فناوری تاریخ این سیاره را دارد. ابرهوش مصنوعی احتمالاً چیزی است که وجود انسان را به چالش خواهد کشید.
چرا مردم از هوش مصنوعی میترسند؟
برای درک بهتر آنچه که استیون هاوکینگ، ایلان ماسک و بسیاری دیگر در مورد آن نگران هستند باید تصویر محبوب هوش مصنوعی را به دقت بررسی کنیم.
واقعیت این است که هوش مصنوعی(AI) از وقتی که کامپیوترها قادر به تصمیم گیری بر اساس ورودیها و شرایط شدند مدتی است که با ما زندگی میکند. هنگامی که یک سیستم تهدید آمیز هوش مصنوعی را در فیلمها میبینیم، شرارت سیستم همراه با قدرت کامپیوتر است که ما را میترساند. اگرچه که هوش مصنوعی فعلاً به شیوه بنیادینی که انسان برایش تعیین کرده رفتار میکند.
وع هوش مصنوعی امروزی ما را میتوان یک هوش عملکردی مصنوعی(AFI) توصیف کرد. این سیستمها برای انجام یک نقش خاص برنامهریزی شده تا آن را به خوبی یا بهتر از یک انسان انجام دهد.
اکنون مدت کوتاهی است که این سیستمها موفقتر از پیشبینیها عمل کردهاند و توانستهاند گیمرها را در رقابتهای بازیهای ویدئویی شکست دهند. چیزی که صاحب نظران تصور وقوع آن را حداقل تا چند سال آینده نمیکردند.
در حالی که ما ممکن است مجبور به پذیرش رباتهای فوق هوشمند باشیم، اما هیچ خطر واقعی وجود ندارد که این سیستمها به شکلی که هاوکینگ میگفت خطرساز شوند.
هوش مصنوعی “AlphaGo” ممکن است از کنون تا زمانی که جهان نابود شود بر همه انسانها در بازی ویدئویی پیروز شود، اما اگر از شرایط آب و هوایی فعلی زمین از آن سوال شود حتی کوچکترین اطلاعاتی از موجودات زنده تک سلولی که به تغییرات دما واکنش میدهند ندارد.
اما آنچه که ما از آن به عنوان یک هوش مصنوعی خطرناک یاد میکنیم چیزی است که دانشمندان کامپیوتر به آن هوش عمومی مصنوعی(AGI) میگویند و یک نوع هوش مصنوعی است که به طور کامل از ذهن انسان تقلید میکند و مثل یک انسان بر یک حوزه از دانش احاطه دارد و میلیاردها بار سریعتر از ما فکر میکند.
با اینکه این سیستم خطرناک به نظر میرسد، اما ما به احتمال زیاد هرگز شاهد زنده شدن یک AGI نخواهیم بود. نگرانی واقعی چیزی است که در یک قدم فراتر از AGI وجود دارد.
مشکل توسعه AGI در معنای سنتی این است که غیر ممکن است یک برنامه تصمیمگیری درختی برای هر سوال که AGI مجبور به حل آن است ایجاد کنیم.
انسانها هم با چنین چالشی مواجه هستند و این چالش مربوط به ظرفیت ما برای یادگیری و شکل دادن ارتباطات جدید در مغز است که ما را هوشمند و قادر به حل مسائل میکند. اگر ما ندانیم که چگونه یک مسئله را حل کنیم، میتوانیم آن را تجزیه و تحلیل کنیم و پاسخی پیدا کنیم. اکنون همین توانایی شروع به توسعه در پیشرفتهترین سیستمهای هوش مصنوعی کرده است.
یک سیستم برای رسیدن به یک AGI واقعی نیاز به یک ابزار کلیدی دارد که دارا بودن قدرت برنامهنویسی برای هوشمندتر شدن است.
زیستشناسی انسان به طور خودکار مغز را به منظور یادگیری چیزهای جدید توسعه میدهد. این همان چیزی است که نگرانیهای مربوط به هوش مصنوعی از آن نشأت گرفته است.
فرض کنید ما یک سیستم را راهاندازی کنیم که میتواند برنامههای خودش را بازنویسی کند و خود را در هر موضوع، مهارت و توانایی که انسان قادر به انجام آن است، هوشمندتر کند.
این سیستم از ابتدا خیلی هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانایی آن را برای بهبود خود افزایش میدهد.
آیا نمیتوان ابرهوش مصنوعی را از برق کشید؟
این شایعترین سوال عمومی در مورد هوش مصنوعی و ترس از پیشرفت آن است. عوام میگویند کافی است هوش مصنوعی را در هنگام خطرساز شدن از برق بکشند، اما میدانیم که این کار ممکن نیست. همانطور که نمیتوانیم یک ویروس رایانهای را با خاموش کردن کامپیوتر پاک کنیم.
اگر یک ویروس میتواند خودش را در یک سیستم مخفی کند یا خود را کپی کند و سیستمهای دیگر را آلوده کند، پس کنترل یک ابرهوش مصنوعی بینهایت مشکلتر خواهد بود.
بدتر از آن این که هوشمندتر از ما است و میتواند راهی برای حفظ خود پیدا کند.
پس چرا هوش مصنوعی را توسعه میدهیم؟
این سوالی است که به طور طبیعی به ذهن متبادر میشود، اما مشکل این است که هیچ راه معقولتری برای توسعه یک سیستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعی تقلیدی از عملکرد خودکار مغز ما در ایجاد اتصالات عصبی جدید به صورت خود به خود است.
اگر ما بخواهیم از AFIهای ابتدایی فراتر برویم پس توسعه یک ابرهوش مصنوعی اجتناب ناپذیر است، زیرا پس از تجزیه اتم به اجزای هستهای به عنوان یک منبع انرژی، توسعه سلاح هستهای نیز اجتناب ناپذیر شد.
در نهایت، تنها راه جلوگیری از ظهور ابرهوش مصنوعی، جلوگیری از پیشرفت هرگونه توسعه هوش مصنوعی است که به نظر نمیرسد به هیچ عنوان در حال حاضر امکانپذیر باشد.
با این که ابرهوش مصنوعی پتانسیل نامحدودی برای آسیب زدن دارد، حداقل برای سازندگانش میتواند مفید باشد.
اگر دو کشور با هم دشمن باشند، یک کشور چگونه میتواند با وجود چنین سیستمی به دیگری اعتماد کند؟ همین مسئله باعث شده است تا کشورهای ابرقدرت جهان همگی با اختصاص منابع مالی فراوان به دنبال پیشتاز بودن در هوش مصنوعی باشند.
اگر توسعه هوش مصنوعی همینطور ادامه یابد پیدایش یک نژاد هوش مصنوعی اجتناب ناپذیر است.
بنابراین آیا ما باید از ابرهوش مصنوعی بترسیم؟ البته. همانطور که هر پیشرفت تکنولوژیک همواره عواقب ناخواستهای نیز به دنبال دارد هنگامی که ما یک ابر هوش مصنوعی را راهاندازی کنیم دیگر هیچ بازگشتی وجود نخواهد داشت.
اما ما باید به یاد داشته باشیم که طبیعت ما این است که تهدید چنین سیستمی را در نظر داشته باشیم چرا که ما به طور فطری به دنبال تشخیص خطر و جلوگیری از مواجهه با آن هستیم.
واقعیت این است که چنین سیستم قدرتمندی میتواند برای خودش تصمیم بگیرد و احتمالاً این قدرت را دارد که زندگی انسان را نابود کند. بنابراین ابرهوش مصنوعی بزرگترین تهدید برای تمدن انسانی خواهد بود.
اما فراموش نکنیم که اگر چنین قدرتی داشته باشد پس قدرت این را هم دارد که تغییرات آب و هوایی را معکوس کند و منجر به تداوم و بهبود زندگی انسان روی زمین شود.
همانطور که ابرهوش مصنوعی میتواند ناهنجاریهای بالقوه زیادی داشته باشد، در عین حال دارای توانایی برای معکوس کردن اثرات تغییرات اقلیمی، ریشه کنی بیماریها، پایان کمبود و قحطی، پایان دادن به مرگ و ارائه جاودانگی و حتی سفر با سرعتی بیشتر از سرعت نور به سوی کهکشانهای دور است.
ما دلایل زیادی داریم که ابرهوش مصنوعی در نهایت به نفع ما کار خواهد کرد. هر پیشرفت تکنولوژیکی هزینهای در بر داشته است، اما تمدن بشری در نهایت از آن منتفع شده و پیشرفت کرده است.
در نهایت این انسان است که از چیزهای مختلف استفادههای مختلف میکند. برخی از ما سلاحهای ویرانگر کشتار جمعی ساخته اند برخی هم طاعون و فلج اطفال را ریشهکن کردهاند. انسان تا حد زیادی به قحطی فائق آمده است و حتی جنگها هم در حال کاهش است.
اگر روند رسیدن به آینده برای ما چیزی شبیه به گذشته ما باشد، پس ما میتوانیم در مورد آینده هوش مصنوعی خوشبین باشیم.
اخلاق در استفاده از هوش مصنوعی
برخی متخصصان حوزه فناوری باور دارند که تنها راه مهار کردن اختیارات هوش مصنوعی و ایمن ساختن آن، استفاده از استانداردهای اخلاقی است.
هوش مصنوعی به تدریج خود را در میان جنبههای گوناگون زندگی انسان جای میدهد و بر زندگی و کار انسانها اثر میگذارد. در سالهای اخیر، هشدارهای بسیاری در مورد گسترش اجتنابناپذیر هوش مصنوعی و امکان قرار گرفتن آن در جایگاه انسان مطرح شده است. بسیاری از متخصصان این حوزه عقیده دارند در صورت گسترش هوش مصنوعی در مشاغل مربوط به فناوری، انسانها بسیاری از فرصتهای شغلی را از دست خواهند داد و به تدریج رباتها جایگزین انسانها خواهند شد.
اعتراضات و هشدارهای گسترده در این حوزه نشان میدهند که ممکن است هوش مصنوعی، به خطری جدی برای آینده شغلی انسانها تبدیل شود. رخدادهایی مانند واکنش اعتراضی کارمندان “اپل” نسبت به پروژههای مربوط به هوش مصنوعی مانند پروژه “ماون”(Maven)، ثابت میکنند که در نظر گرفتن اخلاقیات در این حوزه، از نکات مهم و ضروری است. قراردادهای اخلاقی، برای اطمینان از اعتبار این فناوری، لازم هستند، میزان خطرات احتمالی را کاهش میدهند و به انسانها در بهبود کارشان کمک میکنند.
مخالفان و معترضان ورود هوش مصنوعی به مشاغل انسانی تاکید دارند که اگر هوش مصنوعی بتواند در برخی زمینهها از مغز انسان فراتر برود، به فرمانروای بسیار قدرتمندی تبدیل خواهد شد که احتمالاً ورای اختیارات انسانی عمل میکند؛ در نتیجه سرنوشت و آینده انسانها به هوش مصنوعی وابسته خواهد شد. در واقع، موضوع اصلی در گسترش قدرت هوش مصنوعی، توانایی مهار پیشرفت آن است.
“مکس تگمارک”(Max Tegmark)، فیزیکدان و کیهان شناس دانشگاه “ام. آی. تی”(MIT) در این باره گفت: ما باید عواقب پنهان به کارگیری هوش مصنوعی را کاملاً در نظر بگیریم. به نظر من، نیازی نیست که هوش مصنوعی برای تخریب دنیا، به یک نیروی شیطانی تبدیل شود یا در حالت رباتیک قرار گیرد. در واقع، مشکل اصلی هوش مصنوعی، قابلیت بیش از اندازه و نگرانکننده تفکر آن است. مشکل بزرگتر هنگامی ایجاد میشود که اهداف هوش مصنوعی با اهداف انسانی همخوانی نداشته باشد.
“کریتی شارما”(Kriti Sharma)، از متخصصان و افراد مؤثر در حوزه فناوری، تجارت و رسانه و یکی از ۱۰۰ متخصص تأثیرگذار در این زمینه، از افرادی است که لزوم مطرح شدن اخلاقیات را در حوزه هوش مصنوعی تأیید و توصیه میکند. شارما در این باره گفت: یکی از چالشهای مهم در حوزه صنعت و فناوری، بررسی نحوه دور شدن از هوش مصنوعی به عنوان یک تهدید شغلی و ایمنی و قرار دادن آن در حوزه اخلاقیات است. به طور کلی میتوان گفت که تجارت و فناوری باید در مورد تأثیر جهانی هوش مصنوعی، صادق باشند و نگرانیهای عمومی در مورد این موضوع را در نظر بگیرند. در حال حاضر، بسیاری از مشاغل کنونی حوزه فناوری، به خصوص فناوری دیجیتال، بیش از تحصیلات، مبتنی بر علاقه و مهارت کسانی هستند که علاقه خود را در این زمینه دنبال میکنند و با صرف زمان و هزینه، به یادگیری مهارتهای مورد نیاز میپردازند. به عقیده من، بهترین راه برای شرکتهای فعال در حوزه فناوری، اهمیت دادن به مهارتهای این افراد و تلاش برای پر کردن شکافهای میان هوش مصنوعی و نیروی انسانی است.
وی افزود: در اینجا، لزوم وجود اخلاقیات و قرار دادن استانداردهای اخلاقی برای استفاده از هوش مصنوعی مطرح میشود. نهادها و سازمانهای مربوط به فناوری میتوانند با قرار دادن شرایط و استانداردهای اخلاقی در این زمینه، به پیشرفت و بهبود کار با هوش مصنوعی کمک کنند. بدین ترتیب، حتی با ورود هوش مصنوعی به کارهای گوناگون، امکان حفظ موقعیت و استعدادهای انسانی فراهم میشود و نیروی انسانی در این میان لطمه نخواهد دید. رهبران حوزه تجارت و فناوری میتوانند با کنترل اختیارات هوش مصنوعی، به متخصصان انسانی قدرت بیشتری بدهند و به تکامل مهارتهای آنان کمک کنند تا کار هوش مصنوعی با روشی اخلاقی صورت گیرد.
شارما با تاکید بر لزوم همراهی نیروی انسانی و هوش مصنوعی اضافه کرد: برنامههای مربوط به فناوری باید نحوه سازگاری افراد با هوش مصنوعی را به آنها آموزش دهند تا افراد بتوانند به راحتی با این حوزه تعامل داشته باشند و با آن کار کنند. با آموزش درست نیروی انسانی و پایبندی به استانداردهای اخلاقی، کارآیی هوش مصنوعی افزایش مییابد و امکان بهرهبرداری مناسب از آن فراهم میشود.