هوش مصنوعی : مزایا و معایب آن در آینده
با اینکه فیلمهای علمی تخیلی اغلب AI را به صورت روباتهایی با خصیصههای انسانی نشان میدهند، اما واقعیت این است که AI میتواند شامل موارد بسیاری باشد، مثل الگوریتمهای جستوجوی گوگل، سیستم واتسون (Watson) شرکت IBM یا سلاحهای خودکار. از این نوع هوش مصنوعی برای انجام وظیفهای ضعیف (مثلا شناسایی چهره یا جستوجوی اینترنت یا راندن یک خودرو) استفاده میشود. هوش مصنوعی محدود، در انجام وظایف خود عملکردی بهتر از انسان دارد، وظایفی مثل بازی شطرنج یا حل معادلات. اما در بلند مدت پرسش مهم این است: اگر بشر در ماموریت AI قوی موفق شود و سیستم AI در تمام وظایف شناختی بهتر از بشر عمل کند، چه اتفاقی میافتد؟ اینکه یک سیستم هوش مصنوعی میتواند عمدی یا غیرعمدی موجب تلفات زیادی شود. این سلاحها به گونهای طراحی شدهاند که به سختی «خاموش» میشوند تا دشمن نتواند به سادگی آنها را خنثی کند، در نتیجه ممکن است در چنین شرایطی، انسان نتواند شرایط را کنترل کند. این ریسکی است که در AI ضعیف نیز با آن سروکار داریم، اما میزان خطر با افزایش سطح هوش و خودمختاری AI افزایش مییابد. AI به گونهای برنامهنویسی شود که عملی مفید انجام دهد، اما متدی ویرانگر را برای رسیدن به هدفش ایجاد کند این اتفاق زمانی رخ میدهد که نتوانیم اهداف هوش مصنوعی را با اهداف خود یکی کنیم که کاری بسیار مشکل است. اگر یک پروژهی مهندسی ژئو نامناسب را به یک سیستم AI فوق هوشمند بدهیم، ممکن است به اکوسیستم صدمات جدی وارد کند و تلاشهای انسان برای متوقف کردنش را تهدیدی برای جهان درنظر بگیرد. هوش مصنوعی فوق هوشمند در به دست آوردن اهدافش بسیار خوب عمل میکند، اما اگر اهدافش با اهداف ما یکی نباشد، با مشکلی بزرگ مواجه میشویم. یکی از کلیدیترین اهداف در تحقیقات امن بودن AI این است که هوش مصنوعی هرگز انسان را مثل آن مورچههای بیچاره نبیند. چرا توجهات بسیاری اخیرا به موضوع امن بودن هوش مصنوعی جلب شده است؟ Stephen Hawking، Elon Musk، Steve Wozniak، Bill Gates و آدمهای سرشناس دیگری در حوزهی علوم و فناوری دربارهی خطرات ناشی از AI در رسانهها ابراز نگرانی کردهاند و محققین بسیاری در حوزهی هوش مصنوعی نیز با آنها موافقند. با این حال، با موفقیتهای اخیر، بسیاری از مشکلاتی که پنج سال قبل محققین تصور میکردند دههها با حلشان فاصله داریم، حل شدند و این بسیاری از متخصصین را مجاب کرد که ممکن است تنها چند سال با رسیدن به AI فوقهوشمند فاصله داشته باشیم. بهتر است تحقیقات مربوط به امن بودن آن را از همین حالا شروع کنیم، چون ممکن است این تحقیقات دههها طول بکشند. این روزها، آیندهی هوش مصنوعی و تاثیر آن بر بشریت به موضوع بحثی جذاب بدل شده است. مثل، تاثیر هوش مصنوعی بر بازار کار در آینده، آیا اصلا هوش مصنوعی با قابلیتهایی معادل انسان تولید میشود و اگر پاسخ مثبت است، کی؟، آیا این اختراع منجر به یک انفجار هوش (نوعی از تکینگی فناوری) میشود و در آخر اینکه آیا باید از این موضوع استقبال کنیم یا بترسیم؟ : حداقل دههها با آن فاصله داریم، اما ممکن است امن کردنش نیز همینقدر طول بکشد. باورهایی دربارهی زمان پیدایش هوش مصنوعی پیشرفته اولین باور به زمان پیدایش مربوط میشود: چقدر طول میکشد تا ماشینها از هوش انسان پیشی بگیرند؟ یکی از باورهای غلط در این زمینه این است که زمان دقیق را میدانیم. یکی از باورهای معروف این است که در همین قرن به هوش مصنوعی ابرانسانی دست مییابیم. "پیشنهاد میکنیم که در طول تابستان ۱۹۵۶، ۱۰ محقق، مطالعاتی دو ماهه دربارهی هوش مصنوعی در کالج Dartmouth داشته باشند. از سوی دیگر، یک باور مخالف میگوید که هوش مصنوعی ابرانسانی را در این قرن به دست نمیآوریم. اما یکی از باورها این است که هوش مصنوعی ابرانسانی هرگز عرضه نمیشود، چون از نظر فیزیکی رسیدن به آن غیرممکن است. در طی تحقیقاتی از محققین هوش مصنوعی این سوال پرسیده شد: به نظر آنها و با احتمال ۵۰٪، چند سال تا رسیدن به هوش مصنوعی با تواناییهایی در سطح انسان فاصله داریم؟ مردمی هم که نگران هوش مصنوعی هستند، فکر میکنند که فقط چند سالی با آن فاصله داریم. در واقع، بیشتر محققینی که اعلام کردهاند نگران هوش مصنوعی ابرانسان هستند، حدس میزنند که هنوز دههها تا رسیدن به آن فاصله داریم. اما اعتقاد دارند که چون هنوز ۱۰۰٪ مطمئن نیستیم که در این قرن به آن نمیرسیم، پس بهتر است که تحقیقات مربوط به امن بودن AI را آغاز کنیم تا آمادگی لازم را پیدا کنیم. باورهایی دربارهی اختلاف نظرها در هوش مصنوعی پیشرفته یکی دیگر از باورهای غلط این است که تنها اشخاصی که AI را نمیشناسند و چیزی از آن نمیدانند، نگران AI و خواستار تحقیقاتی در زمینهی امن بودن آن هستند. باور غلط دیگر این است که محققین دربارهی تحقیقات امن بودن AI بسیار با هم اختلاف نظر دارند. در واقع، لازم نیست کسی باور داشته باشد که احتمال خطرناک بودن AI بسیار بالاست تا از تحقیقات حمایت کند. برای مثال، یک شخص مخالف فناوری، که فقط در یک روزنامهی بریتانیایی دربارهی موضع بیل گیتس خوانده است، ممکن است به اشتباه فکر کند بیل گیتس باور دارد ابرهوش به زودی رخ میدهد. همینطور، کسی که موافق AI است و چیزی از موضع Andrew Ng نمیداند و تنها سخنی از او دربارهی ازدیاد جمعیت مریخ خوانده است، ممکن است فکر کند که Andrew به امن بودن AI اهمیت نمیدهد، که اینطور نیست. درواقع چون Ng معتقد است فرصت بیشتری تا رسیدن به AI پیشرفته داریم، ترجیح میدهد اولویتش مشکلات کوتاه مدت AI باشد نه بلند مدت. بسیاری از محققین AI با دیدن این تیتر خبری عصبی میشوند: «استیون هاوکینگ هشدار داد که قیام روباتها میتواند برای بشریت فاجعهبار باشد.» تعداد مقالات مشابه این کم نیست. باور غلط هوشیاری به نوعی مشابه این باور است که ماشینها نمیتوانند هدف داشته باشند. درواقع، نگرانی اصلی جنبش AI سودمند روبات نیست، بلکه خود هوش است: مخصوصا، هوشی که اهدافش با ما مطابقت نداشته باشد. این هوش میتواند در بازار اقتصادی باهوشتر عمل کند، اختراعات بهتری از محققین داشته باشد، رهبران سیاسی را گول بزند و سلاحهایی طراحی کند که ما حتی قادر به درکشان نیستیم. باور غلط دربارهی روباتها هم شبیه این باور است که ماشینها نمیتوانند انسان را کنترل کنند. هوش موجب کنترل میشود: انسان چون باهوشتر است، میتواند ببرها را کنترل کند. درنتیجه اگر ما باهوشترین موجود این سیاره نباشیم، ممکن است دیگر رئیس هم نباشیم. آیا ماشینهای هوشمند جای ما را میگیرند؟ یا کنارمان زندگی میکنند؟ یا با ما ادغام میشوند؟ انسان بودن در عصر هوش مصنوعی به چه معناست؟ دوست دارید انسان بودن چگونه باشد و راه عملی کردن آن در آینده چیست؟ در صورتی مطلب مزایا و معایب هوش مصنوعی برای شما مفید بوده است:
متن کامل نوشته در سایت فرانش
نظرات