آیا باید نگران هوش مصنوعی باشیم؟

به گزارش تور انگلیس، به گزارش خبرنگاران به نقل از گاردین - از همان زمان که گری کاسپاروف در سال 1997 دومین مسابقه شطرنج خود را در برابر ابررایانه شطرنج باز شرکت آی بی ام یعنی دیپ بلو باخت، این موضوع مثل روز برای بشر روشن بود. یا حداقل برخی دوست دارند این طور فکر کنند، پیشرفت در هوش مصنوعی -بر اساس برخی برآوردها، تنها طی چند دهه- منجر به توسعه ماشین های فوق هوشمند و خودآگاه خواهد شد. فیلم هایی نظیر ترمیناتور و ماتریکس این چشم انداز را تا مقدار ای نامطلوب به تصویر کشیده اند؛ اما آیا این چیزی فراتر از یک پروژه ترسِ علمی-تخیلی دیگر است؟

آیا باید نگران هوش مصنوعی باشیم؟

برخی از این سردرگمی ها نشأت گرفته از دو کاربرد بسیار متفاوت از عبارت هوش مصنوعی است. اولی اساسا یک مفهوم بازاریابی است: هر کاری که نرم افزار های رایانه ای انجام می دهند و به نظر هوشمندانه یا به طور مفیدی پاسخگو می رسد -مثل Siri- از هوش مصنوعی استفاده می کند. دومی (که اولی جذبه خود را از آن وام می گیرد) به آینده ای از ماشین هایی با هوش مافوق بشری اشاره دارد که هنوز وجود ندارد و گاهی AGI یعنی هوش مصنوعی عمومی نامیده می شود.

به فرض اینکه بخواهیم، چطور باید از جایی که هستیم، به آن نقطه برسیم؟ هوش مصنوعی مدرن، یادگیری ماشینی (یا یادگیری عمیق) را به کار می گیرد. به این صوورت که به جای برنامه نویسی مستقیم قوانین برای ماشین، به آن اجازه می دهیم خودش یاد بگیرد. به این ترتیب، آلفا زیرو شطرنج بازی که از طریق شرکت انگلیسی دیپ مایند (که حالا بخشی از گوگل است) خلق شد، میلیون ها مسابقه تمرینی با خود انجام داد و بعد پیروز به شکست اصلی ترین رقیبش شد.

یادگیری ماشینی با آموزش ماشین به کمک مقادیر زیادی داده کار می کند. عکس ها برای سیستم های تشخیص تصویر، یا ترابایت های یک متن که از اینترنت گرفته شده تا ربات ها مقالات تقریبا قابل قبولی تولید کنند، حکم همین داده ها را دارند؛ اما مجموعه داده ها صرفا مخازن خنثایی از اطلاعات نیستند. آنها اغلب سوگیری های انسانی را به روش های پیش بینی نشده رمزگذاری می کنند. در چندین استان امریکا این هوش مصنوعی برای پیش بینی اینکه آیا نامزدهای عفو مشروط مجددا مرتکب جرم خواهند شد، در حال استفاده است و منتقدان ادعا می کنند داده هایی که الگوریتم ها روی آنها آموزش می بینند، نشان دهنده سوگیری تاریخی از طریق نیروی پلیس است.

اخیرا شاهد بودیم که ربات آی-دا با استفاده از بانک اطلاعاتی واژه ها و تحلیل الگوهای گفتاری توانست اثری در واکنش به کمدی الهی دانته خلق کند و قرار است روز جمعه شعرهای خود را در موزه اشمولین آکسفورد بخواند. با این که آی-دا اولین هوش مصنوعی نیست که شعر گفتن را آموخت، اما نخستین رباتی خواهد بود که شعری را که با الگوریتم های هوش مصنوعی خود نوشته است، برای عموم می خواند. آیدن ملر، متخصص هنر و سازنده این ربات می گوید با آنکه شعر آی-دا را قابل مقایسه با شاعران انسانی نمی بیند اما اعتراف می کند که این اتفاق اساسا نگران کننده است. او امیدوار است که هنرمندان، شاعران، نویسندگان و غیره به طور فزاینده ای با فناوری های نو نظیر هوش مصنوعی درگیر شده و از آنها استفاده کنند، زیرا یکی از بهترین راه ها برای نقد، ارزیابی و برجسته کردن مسائل احتمالی، استفاده واقعی و تعامل با این فناوری هاست. به عقیده او مساله رقابت نیست، بلکه بحث و اقدام بالقوه است. همه ما باید نگران استفاده گسترده از مدل های زبان هوش مصنوعی در اینترنت باشیم و اینکه چگونه در آینده بر زبان و مهم تر از آن، ساخت معنا تاثیر می گذارند. اگر برنامه های کامپیوتری بیشتر از انسان ها محتوایی خلق کنند که روح و جامعه انسان را تحت تاثیر قرار دهد، در این صورت شاهد جابه جایی و تغییر حیاتی در استفاده و تاثیر زبان خواهیم بود -که باید درباره اش بحث و فکر شود.

مشکل وجودی این است که اگر رایانه ها در نهایت به نوعی هوش خودآگاه خداگونه دست پیدا کنند، آیا همچنان مشتاق خدمت رسانی خواهند بود؟ اگر چیزی چنین قدرتمند می سازیم، بهتر است از این مطمئن شویم که به خودمان پشت نمی کند. برای کسانی که به طور جدی نگران این موضوع هستند، این بحث چنین ادامه پیدا می کند که از آنجایی که این یک مشکل بالقوه است، باید اکنون منابع را برای مبارزه با آن اختصاص دهیم. نیک بوستروم، فیلسوفی که ریاست موسسه آینده بشریت دانشگاه آکسفورد را بر عهده دارد می گوید انسان هایی که سعی در ساخت هوش مصنوعی دارند، مانند بچه هایی هستند که با بمب بازی می کنند و دورنمای ادراک ماشینی تهدیدی بزرگ تر از گرمایش جهانی برای انسان محسوب می شود. کتاب فراهوش او بسیار اثرگذار است. او در این کتاب به این مضوضوع اشاره می کند که یک هوش مصنوعی واقعی ممکن است مخفیانه گازهای عصبی یا نانوربات هایی بسازد تا سازندگان زیردست و ساخته شده از گوشت و خون خود را نابود کند. یا ممکن است ما را در یک باغ وحش سیاره ای نگه دارد، در حالی که به کار واقعی اش ادامه می دهد.

برای آنکه فاجعه رخ دهد نیازی نیست که هوش مصنوعی به طور فعال مخرب باشد. این موضوع با نظریه معروف بوستروم، مشکل گیره کاغذ نشان داده شده است. فرض کنید به یک هوش مصنوعی می گویید گیره کاغذ بسازد و فراموش می کنید به آن بگویید چه وقت ساخت این گیره ها را متوقف کند. دکمه خاموش را هم در ابتدای کار غیرفعال کرده اید، زیرا اگر اجازه خاموش کردن خود را داشته باشد، ممکن است هدف اصلی اش را که ساختن گیره کاغذ است دنبال نکند و در نهایت این هوش مصنوعی تمام مواد روی زمین را به گیره کاغذ تبدیل خواهد کرد.

این نمونه ای از مساله کنترل کلی است؛ موضوع کتاب فوق العاده استوارت راسل، از پیشگامان هوش مصنوعی با عنوان سازگار با بشر: هوش مصنوعی و مساله کنترل که استدلال می کند تعیین هرگونه هدف برای یک ماشین فراهوشند به منظور جلوگیری از چنین سوءتفاهم های فاجعه باری غیرممکن است. در همین حال، مکس تگمارک، فیزیکدان و از بنیان گذاران موسسه آینده زندگی در کتاب زندگی 3: انسان بودن در عصر هوش مصنوعی بر مساله هم سویی ارزش ها تاکید دارد، اینکه چطور اطمینان حاصل کنیم که ارزش های ماشین با ارزش های ما مطابقت دارد. با در نظر گرفتن این نکته که هزاران سال فلسفه اخلاق هنوز برای توافق بشر بر سر این موضوع که ارزش های ما واقعا چه هستند کافی نبوده، این هم می تواند مسئله ای حل نشدنی باشد.

با این حال ناظران دیگر آرام و خونسرد هستند. جیمز لاولاک، دانشمند تکرو و نظریه پرداز فرضیه گایا استدلال می کند که انسان ها باید راضی شوند اگر بتوانیم ماشین های هوشمند را به مرحله منطقی بعدی تکامل راهنمایی کرده، سر تعظیم فرود آوریم و خود را منسوخ قلمداد کنیم. جینت وینترسون در اثر اخیر خود، 12 بایت بسیار خوشبین است که هوش های مصنوعی آینده حداقل راغب به طمع، زمین خواری، موقعیت طلبی و خشونتی که مشخصه انسان خردمند است، نخواهند بود. همان طور که درو مک درموت، دانشمند کامپیوتر در مقاله ای که در سال 1976 منتشر کرد اشاره کرد که شاید در نهایت باید از هوش مصنوعی کمتر از حماقت طبیعی بترسیم.

منبع: ایبنا - خبرگزاری کتاب ایران
انتشار: 19 دی 1400 بروزرسانی: 19 دی 1400 گردآورنده: tour-england.ir شناسه مطلب: 1267

به "آیا باید نگران هوش مصنوعی باشیم؟" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "آیا باید نگران هوش مصنوعی باشیم؟"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید