انشا درباره هوش مصنوعی

فال روزانه

artificial intelligence

مردم با دیدن پیشرفت هوش مصنوعی این سوال در ذهن‌شان مطرح می‌شود که نتیجه نهایی چه خواهد شد و پیامد ابرهوش مصنوعی برای انسان چه خواهد بود؟

استیون هاوکینگ مدتی قبل از درگذشتش در یک سخنرانی در کنفرانسی در لیسبون پرتغال به شرکت‌کنندگان گفت که توسعه هوش مصنوعی ممکن است به بدترین رویداد تاریخ تمدن بشر تبدیل شود و وی دلایل زیادی برای این نگرانی دارد.

این فناوری توسط پژوهشگران هوش مصنوعی، اخلاق گرایان و دیگران به عنوان یک ابرهوش مصنوعی(ASI) شناخته شده است و توانایی تبدیل شدن به قدرتمندترین فناوری تاریخ این سیاره را دارد. ابرهوش مصنوعی احتمالاً چیزی است که وجود انسان را به چالش خواهد کشید.

چرا مردم از هوش مصنوعی می‌ترسند؟

برای درک بهتر آنچه که استیون هاوکینگ، ایلان ماسک و بسیاری دیگر در مورد آن نگران هستند باید تصویر محبوب هوش مصنوعی را به دقت بررسی کنیم.

واقعیت این است که هوش مصنوعی(AI) از وقتی که کامپیوترها قادر به تصمیم گیری بر اساس ورودی‌ها و شرایط شدند مدتی است که با ما زندگی می‌کند. هنگامی که یک سیستم تهدید آمیز هوش مصنوعی را در فیلم‌ها می‌بینیم، شرارت سیستم همراه با قدرت کامپیوتر است که ما را می‌ترساند. اگرچه که هوش مصنوعی فعلاً به شیوه بنیادینی که انسان برایش تعیین کرده رفتار می‌کند.

وع هوش مصنوعی امروزی ما را می‌توان یک هوش عملکردی مصنوعی(AFI) توصیف کرد. این سیستم‌ها برای انجام یک نقش خاص برنامه‌ریزی شده تا آن را به خوبی یا بهتر از یک انسان انجام دهد.

اکنون مدت کوتاهی است که این سیستم‌ها موفق‌تر از پیش‌بینی‌ها عمل کرده‌اند و توانسته‌اند گیمرها را در رقابت‌های بازی‌های ویدئویی شکست دهند. چیزی که صاحب نظران تصور وقوع آن را حداقل تا چند سال آینده نمی‌کردند.

در حالی که ما ممکن است مجبور به پذیرش ربات‌های فوق هوشمند باشیم، اما هیچ خطر واقعی وجود ندارد که این سیستم‌ها به شکلی که هاوکینگ می‌گفت خطرساز شوند.

هوش مصنوعی “AlphaGo” ممکن است از کنون تا زمانی که جهان نابود شود بر همه انسان‌ها در بازی ویدئویی پیروز شود، اما اگر از شرایط آب و هوایی فعلی زمین از آن سوال شود حتی کوچک‌ترین اطلاعاتی از موجودات زنده تک سلولی که به تغییرات دما واکنش می‌دهند ندارد.

اما آنچه که ما از آن به عنوان یک هوش مصنوعی خطرناک یاد می‌کنیم چیزی است که دانشمندان کامپیوتر به آن هوش عمومی مصنوعی(AGI) می‌گویند و یک نوع هوش مصنوعی است که به طور کامل از ذهن انسان تقلید می‌کند و مثل یک انسان بر یک حوزه از دانش احاطه دارد و میلیاردها بار سریع‌تر از ما فکر می‌کند.

با اینکه این سیستم خطرناک به نظر می‌رسد، اما ما به احتمال زیاد هرگز شاهد زنده شدن یک AGI نخواهیم بود. نگرانی واقعی چیزی است که در یک قدم فراتر از AGI وجود دارد.

مشکل توسعه AGI در معنای سنتی این است که غیر ممکن است یک برنامه تصمیم‌گیری درختی برای هر سوال که AGI مجبور به حل آن است ایجاد کنیم.

انسان‌ها هم با چنین چالشی مواجه هستند و این چالش مربوط به ظرفیت ما برای یادگیری و شکل دادن ارتباطات جدید در مغز است که ما را هوشمند و قادر به حل مسائل می‌کند. اگر ما ندانیم که چگونه یک مسئله را حل کنیم، می‌توانیم آن را تجزیه و تحلیل کنیم و پاسخی پیدا کنیم. اکنون همین توانایی شروع به توسعه در پیشرفته‌ترین سیستم‌های هوش مصنوعی کرده است.

یک سیستم برای رسیدن به یک AGI واقعی نیاز به یک ابزار کلیدی دارد که دارا بودن قدرت برنامه‌نویسی برای هوشمندتر شدن است.

زیست‌شناسی انسان به طور خودکار مغز را به منظور یادگیری چیزهای جدید توسعه می‌دهد. این همان چیزی است که نگرانی‌های مربوط به هوش مصنوعی از آن نشأت گرفته است.

فرض کنید ما یک سیستم را راه‌اندازی کنیم که می‌تواند برنامه‌های خودش را بازنویسی کند و خود را در هر موضوع، مهارت و توانایی که انسان قادر به انجام آن است، هوشمندتر کند.

این سیستم از ابتدا خیلی هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانایی آن را برای بهبود خود افزایش می‌دهد.

آیا نمی‌توان ابرهوش مصنوعی را از برق کشید؟

این شایع‌ترین سوال عمومی در مورد هوش مصنوعی و ترس از پیشرفت آن است. عوام می‌گویند کافی است هوش مصنوعی را در هنگام خطرساز شدن از برق بکشند، اما می‌دانیم که این کار ممکن نیست. همانطور که نمی‌توانیم یک ویروس رایانه‌ای را با خاموش کردن کامپیوتر پاک کنیم.

اگر یک ویروس می‌تواند خودش را در یک سیستم مخفی کند یا خود را کپی کند و سیستم‌های دیگر را آلوده کند، پس کنترل یک ابرهوش مصنوعی بی‌نهایت مشکل‌تر خواهد بود.

بدتر از آن این که هوشمندتر از ما است و می‌تواند راهی برای حفظ خود پیدا کند.

پس چرا هوش مصنوعی را توسعه می‌دهیم؟

این سوالی است که به طور طبیعی به ذهن متبادر می‌شود، اما مشکل این است که هیچ راه معقول‌تری برای توسعه یک سیستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعی تقلیدی از عملکرد خودکار مغز ما در ایجاد اتصالات عصبی جدید به صورت خود به خود است.

اگر ما بخواهیم از AFIهای ابتدایی فراتر برویم پس توسعه یک ابرهوش مصنوعی اجتناب ناپذیر است، زیرا پس از تجزیه اتم به اجزای هسته‌ای به عنوان یک منبع انرژی، توسعه سلاح هسته‌ای نیز اجتناب ناپذیر شد.

در نهایت، تنها راه جلوگیری از ظهور ابرهوش مصنوعی، جلوگیری از پیشرفت هرگونه توسعه هوش مصنوعی است که به نظر نمی‌رسد به هیچ عنوان در حال حاضر امکان‌پذیر باشد.

با این که ابرهوش مصنوعی پتانسیل نامحدودی برای آسیب زدن دارد، حداقل برای سازندگانش می‌تواند مفید باشد.

اگر دو کشور با هم دشمن باشند، یک کشور چگونه می‌تواند با وجود چنین سیستمی به دیگری اعتماد کند؟ همین مسئله باعث شده است تا کشورهای ابرقدرت جهان همگی با اختصاص منابع مالی فراوان به دنبال پیشتاز بودن در هوش مصنوعی باشند.

اگر توسعه هوش مصنوعی همینطور ادامه یابد پیدایش یک نژاد هوش مصنوعی اجتناب ناپذیر است.

بنابراین آیا ما باید از ابرهوش مصنوعی بترسیم؟ البته. همانطور که هر پیشرفت تکنولوژیک همواره عواقب ناخواسته‌ای نیز به دنبال دارد هنگامی که ما یک ابر هوش مصنوعی را راه‌اندازی کنیم دیگر هیچ بازگشتی وجود نخواهد داشت.

اما ما باید به یاد داشته باشیم که طبیعت ما این است که تهدید چنین سیستمی را در نظر داشته باشیم چرا که ما به طور فطری به دنبال تشخیص خطر و جلوگیری از مواجهه با آن هستیم.

واقعیت این است که چنین سیستم قدرتمندی می‌تواند برای خودش تصمیم بگیرد و احتمالاً این قدرت را دارد که زندگی انسان را نابود کند. بنابراین ابرهوش مصنوعی بزرگترین تهدید برای تمدن انسانی خواهد بود.

اما فراموش نکنیم که اگر چنین قدرتی داشته باشد پس قدرت این را هم دارد که تغییرات آب و هوایی را معکوس کند و منجر به تداوم و بهبود زندگی انسان روی زمین شود.

همانطور که ابرهوش مصنوعی می‌تواند ناهنجاری‌های بالقوه زیادی داشته باشد، در عین حال دارای توانایی برای معکوس کردن اثرات تغییرات اقلیمی، ریشه کنی بیماری‌ها، پایان کمبود و قحطی، پایان دادن به مرگ و ارائه جاودانگی و حتی سفر با سرعتی بیشتر از سرعت نور به سوی کهکشان‌های دور است.

ما دلایل زیادی داریم که ابرهوش مصنوعی در نهایت به نفع ما کار خواهد کرد. هر پیشرفت تکنولوژیکی هزینه‌ای در بر داشته است، اما تمدن بشری در نهایت از آن منتفع شده و پیشرفت کرده است.

در نهایت این انسان است که از چیزهای مختلف استفاده‌های مختلف می‌کند. برخی از ما سلاح‌های ویرانگر کشتار جمعی ساخته اند برخی هم طاعون و فلج اطفال را ریشه‌کن کرده‌اند. انسان تا حد زیادی به قحطی فائق آمده است و حتی جنگ‌ها هم در حال کاهش است.

اگر روند رسیدن به آینده برای ما چیزی شبیه به گذشته ما باشد، پس ما می‌توانیم در مورد آینده هوش مصنوعی خوش‌بین باشیم.

هوش مصنوعی

اخلاق در استفاده از هوش مصنوعی

برخی متخصصان حوزه فناوری باور دارند که تنها راه مهار کردن اختیارات هوش مصنوعی و ایمن ساختن آن، استفاده از استانداردهای اخلاقی است.

 هوش مصنوعی به تدریج خود را در میان جنبه‌های گوناگون زندگی انسان جای می‌دهد و بر زندگی و کار انسان‌ها اثر می‌گذارد. در سال‌های اخیر، هشدارهای بسیاری در مورد گسترش اجتناب‌ناپذیر هوش مصنوعی و امکان قرار گرفتن آن در جایگاه انسان مطرح شده است. بسیاری از متخصصان این حوزه عقیده دارند در صورت گسترش هوش مصنوعی در مشاغل مربوط به فناوری، انسان‌ها بسیاری از فرصت‌های شغلی را از دست خواهند داد و به تدریج ربات‌ها جایگزین انسان‌ها خواهند شد.

اعتراضات و هشدارهای گسترده در این حوزه نشان می‌دهند که ممکن است هوش مصنوعی، به خطری جدی برای آینده شغلی انسان‌ها تبدیل شود. رخدادهایی مانند واکنش اعتراضی کارمندان “اپل” نسبت به پروژه‌های مربوط به هوش مصنوعی مانند پروژه “ماون”(Maven)، ثابت می‌کنند که در نظر گرفتن اخلاقیات در این حوزه، از نکات مهم و ضروری است. قراردادهای اخلاقی، برای اطمینان از اعتبار این فناوری، لازم هستند، میزان خطرات احتمالی را کاهش می‌دهند و به انسان‌ها در بهبود کارشان کمک می‌کنند.

مخالفان و معترضان ورود هوش مصنوعی به مشاغل انسانی تاکید دارند که اگر هوش مصنوعی بتواند در برخی زمینه‌ها از مغز انسان فراتر برود، به فرمانروای بسیار قدرتمندی تبدیل خواهد شد که احتمالاً ورای اختیارات انسانی عمل می‌کند؛ در نتیجه سرنوشت و آینده انسان‌ها به هوش مصنوعی وابسته خواهد شد. در واقع، موضوع اصلی در گسترش قدرت هوش مصنوعی، توانایی مهار پیشرفت آن است.

“مکس تگمارک”(Max Tegmark)، فیزیکدان و کیهان شناس دانشگاه “ام. آی. تی”(MIT) در این باره گفت: ما باید عواقب پنهان به کارگیری هوش مصنوعی را کاملاً در نظر بگیریم. به نظر من، نیازی نیست که هوش مصنوعی برای تخریب دنیا، به یک نیروی شیطانی تبدیل شود یا در حالت رباتیک قرار گیرد. در واقع، مشکل اصلی هوش مصنوعی، قابلیت بیش از اندازه و نگران‌کننده تفکر آن است. مشکل بزرگ‌تر هنگامی ایجاد می‌شود که اهداف هوش مصنوعی با اهداف انسانی همخوانی نداشته باشد.

“کریتی شارما”(Kriti Sharma)، از متخصصان و افراد مؤثر در حوزه فناوری، تجارت و رسانه و یکی از ۱۰۰ متخصص تأثیرگذار در این زمینه، از افرادی است که لزوم مطرح شدن اخلاقیات را در حوزه هوش مصنوعی تأیید و توصیه می‌کند. شارما در این باره گفت: یکی از چالش‌های مهم در حوزه صنعت و فناوری، بررسی نحوه دور شدن از هوش مصنوعی به عنوان یک تهدید شغلی و ایمنی و قرار دادن آن در حوزه اخلاقیات است. به طور کلی می‌توان گفت که تجارت و فناوری باید در مورد تأثیر جهانی هوش مصنوعی، صادق باشند و نگرانی‌های عمومی در مورد این موضوع را در نظر بگیرند. در حال حاضر، بسیاری از مشاغل کنونی حوزه فناوری، به خصوص فناوری دیجیتال، بیش از تحصیلات، مبتنی بر علاقه و مهارت کسانی هستند که علاقه خود را در این زمینه دنبال می‌کنند و با صرف زمان و هزینه، به یادگیری مهارت‌های مورد نیاز می‌پردازند. به عقیده من، بهترین راه برای شرکت‌های فعال در حوزه فناوری، اهمیت دادن به مهارت‌های این افراد و تلاش برای پر کردن شکاف‌های میان هوش مصنوعی و نیروی انسانی است.

وی افزود: در اینجا، لزوم وجود اخلاقیات و قرار دادن استانداردهای اخلاقی برای استفاده از هوش مصنوعی مطرح می‌شود. نهادها و سازمان‌های مربوط به فناوری می‌توانند با قرار دادن شرایط و استانداردهای اخلاقی در این زمینه، به پیشرفت و بهبود کار با هوش مصنوعی کمک کنند. بدین ترتیب، حتی با ورود هوش مصنوعی به کارهای گوناگون، امکان حفظ موقعیت و استعدادهای انسانی فراهم می‌شود و نیروی انسانی در این میان لطمه نخواهد دید. رهبران حوزه تجارت و فناوری می‌توانند با کنترل اختیارات هوش مصنوعی، به متخصصان انسانی قدرت بیشتری بدهند و به تکامل مهارت‌های آنان کمک کنند تا کار هوش مصنوعی با روشی اخلاقی صورت گیرد.

شارما با تاکید بر لزوم همراهی نیروی انسانی و هوش مصنوعی اضافه کرد: برنامه‌های مربوط به فناوری باید نحوه سازگاری افراد با هوش مصنوعی را به آنها آموزش دهند تا افراد بتوانند به راحتی با این حوزه تعامل داشته باشند و با آن کار کنند. با آموزش درست نیروی انسانی و پایبندی به استانداردهای اخلاقی، کارآیی هوش مصنوعی افزایش می‌یابد و امکان بهره‌برداری مناسب از آن فراهم می‌شود.

شما میتوانید انشاهای خود را به آدرس ایمیل enshasara.ir@gmail.com ارسال کنید تا با نام شما در سایت انشا سرا قرار بگیرد.

یک پاسخ بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *