هوش مصنوعی : مزایا و معایب آن در آینده

با اینکه فیلم‌های علمی تخیلی اغلب AI را به صورت روبات‌هایی با خصیصه‌های انسانی نشان می‌دهند، اما واقعیت این است که AI می‌تواند شامل موارد بسیاری باشد، مثل الگوریتم‌های جست‌وجوی گوگل، سیستم واتسون (Watson) شرکت IBM یا سلاح‌های خودکار. از این نوع هوش مصنوعی برای انجام وظیفه‌ای ضعیف (مثلا شناسایی چهره یا جست‌وجوی اینترنت یا راندن یک خودرو) استفاده می‌شود. هوش مصنوعی محدود، در انجام وظایف خود عملکردی بهتر از انسان دارد، وظایفی مثل بازی شطرنج یا حل معادلات. اما در بلند مدت پرسش مهم این است: اگر بشر در ماموریت AI قوی موفق شود و سیستم AI در تمام وظایف شناختی بهتر از بشر عمل کند، چه اتفاقی می‌افتد؟ اینکه یک سیستم هوش مصنوعی می‌تواند عمدی یا غیرعمدی موجب تلفات زیادی شود. این سلاح‌ها به گونه‌ای طراحی شده‌اند که به سختی «خاموش» می‌شوند تا دشمن نتواند به سادگی آنها را خنثی کند، در نتیجه ممکن است در چنین شرایطی، انسان نتواند شرایط را کنترل کند. این ریسکی است که در AI ضعیف نیز با آن سروکار داریم، اما میزان خطر با افزایش سطح هوش و خودمختاری AI افزایش می‌یابد. AI به گونه‌ای برنامه‌نویسی شود که عملی مفید انجام دهد، اما متدی ویرانگر را برای رسیدن به هدفش ایجاد کند این اتفاق زمانی رخ می‌دهد که نتوانیم اهداف هوش مصنوعی را با اهداف خود یکی کنیم که کاری بسیار مشکل است. اگر یک پروژه‌ی مهندسی ژئو نامناسب را به یک سیستم AI فوق هوشمند بدهیم، ممکن است به اکوسیستم صدمات جدی وارد کند و تلاش‌های انسان برای متوقف کردنش را تهدیدی برای جهان درنظر بگیرد. هوش مصنوعی فوق هوشمند در به دست آوردن اهدافش بسیار خوب عمل می‌کند، اما اگر اهدافش با اهداف ما یکی نباشد، با مشکلی بزرگ مواجه می‌شویم. یکی از کلیدی‌ترین اهداف در تحقیقات امن بودن AI این است که هوش مصنوعی هرگز انسان را مثل آن مورچه‌های بیچاره نبیند. چرا توجهات بسیاری اخیرا به موضوع امن بودن هوش مصنوعی جلب شده است؟ Stephen Hawking، Elon Musk، Steve Wozniak، Bill Gates و آدم‌های سرشناس دیگری در حوزه‌ی علوم و فناوری درباره‌ی خطرات ناشی از AI در رسانه‌ها ابراز نگرانی کرده‌اند و محققین بسیاری در حوزه‌ی هوش مصنوعی نیز با آنها موافقند. با این حال، با موفقیت‌های اخیر، بسیاری از مشکلاتی که پنج سال قبل محققین تصور می‌کردند دهه‌ها با حلشان فاصله داریم، حل شدند و این بسیاری از متخصصین را مجاب کرد که ممکن است تنها چند سال با رسیدن به AI فوق‌هوشمند فاصله داشته باشیم. بهتر است تحقیقات مربوط به امن بودن آن را از همین حالا شروع کنیم، چون ممکن است این تحقیقات دهه‌ها طول بکشند. این روزها، آینده‌ی هوش مصنوعی و تاثیر آن بر بشریت به موضوع بحثی جذاب بدل شده است. مثل، تاثیر هوش مصنوعی بر بازار کار در آینده، آیا اصلا هوش مصنوعی با قابلیت‌هایی معادل انسان تولید می‌شود و اگر پاسخ مثبت است، کی؟، آیا این اختراع منجر به یک انفجار هوش (نوعی از تکینگی فناوری) می‌شود و در آخر اینکه آیا باید از این موضوع استقبال کنیم یا بترسیم؟ : حداقل دهه‌ها با آن فاصله داریم، اما ممکن است امن کردنش نیز همین‌قدر طول بکشد. باورهایی درباره‌ی زمان پیدایش هوش مصنوعی پیشرفته اولین باور به زمان پیدایش مربوط می‌شود: چقدر طول می‌کشد تا ماشین‌ها از هوش انسان پیشی بگیرند؟ یکی از باورهای غلط در این زمینه این است که زمان دقیق را می‌دانیم. یکی از باورهای معروف این است که در همین قرن به هوش مصنوعی ابرانسانی دست می‌یابیم. "پیشنهاد می‌کنیم که در طول تابستان ۱۹۵۶، ۱۰ محقق، مطالعاتی دو ماهه درباره‌ی هوش مصنوعی در کالج Dartmouth داشته باشند. از سوی دیگر، یک باور مخالف می‌گوید که هوش مصنوعی ابرانسانی را در این قرن به دست نمی‌آوریم. اما یکی از باورها این است که هوش مصنوعی ابرانسانی هرگز عرضه نمی‌شود، چون از نظر فیزیکی رسیدن به آن غیرممکن است. در طی تحقیقاتی از محققین هوش مصنوعی این سوال پرسیده شد: به نظر آنها و با احتمال ۵۰٪، چند سال تا رسیدن به هوش مصنوعی با توانایی‌هایی در سطح انسان فاصله داریم؟ مردمی هم که نگران هوش مصنوعی هستند، فکر می‌کنند که فقط چند سالی با آن فاصله داریم. در واقع، بیشتر محققینی که اعلام کرده‌اند نگران هوش مصنوعی ابرانسان هستند، حدس می‌زنند که هنوز دهه‌ها تا رسیدن به آن فاصله داریم. اما اعتقاد دارند که چون هنوز ۱۰۰٪ مطمئن نیستیم که در این قرن به آن نمی‌رسیم، پس بهتر است که تحقیقات مربوط به امن بودن AI را آغاز کنیم تا آمادگی لازم را پیدا کنیم. باورهایی درباره‌ی اختلاف نظرها در هوش مصنوعی پیشرفته یکی دیگر از باورهای غلط این است که تنها اشخاصی که AI را نمی‌شناسند و چیزی از آن نمی‌دانند، نگران AI و خواستار تحقیقاتی در زمینه‌ی امن بودن آن هستند. باور غلط دیگر این است که محققین درباره‌ی تحقیقات امن بودن AI بسیار با هم اختلاف نظر دارند. در واقع، لازم نیست کسی باور داشته باشد که احتمال خطرناک بودن AI بسیار بالاست تا از تحقیقات حمایت کند. برای مثال، یک شخص مخالف فناوری، که فقط در یک روزنامه‌ی بریتانیایی درباره‌ی موضع بیل گیتس خوانده است، ممکن است به اشتباه فکر کند بیل گیتس باور دارد ابرهوش به زودی رخ می‌دهد. همین‌طور، کسی که موافق AI است و چیزی از موضع Andrew Ng نمی‌داند و تنها سخنی از او درباره‌ی ازدیاد جمعیت مریخ خوانده است، ممکن است فکر کند که Andrew به امن بودن AI اهمیت نمی‌دهد، که اینطور نیست. درواقع چون Ng معتقد است فرصت بیشتری تا رسیدن به AI پیشرفته داریم، ترجیح می‌دهد اولویتش مشکلات کوتاه مدت AI باشد نه بلند مدت. بسیاری از محققین AI با دیدن این تیتر خبری عصبی می‌شوند: «استیون هاوکینگ هشدار داد که قیام روبات‌ها می‌تواند برای بشریت فاجعه‌بار باشد.» تعداد مقالات مشابه این کم نیست. باور غلط هوشیاری به نوعی مشابه این باور است که ماشین‌ها نمی‌توانند هدف داشته باشند. درواقع، نگرانی اصلی جنبش AI سودمند روبات نیست، بلکه خود هوش است: مخصوصا، هوشی که اهدافش با ما مطابقت نداشته باشد. این هوش می‌تواند در بازار اقتصادی باهوش‌تر عمل کند، اختراعات بهتری از محققین داشته باشد، رهبران سیاسی را گول بزند و سلاح‌هایی طراحی کند که ما حتی قادر به درکشان نیستیم. باور غلط درباره‌ی روبات‌ها هم شبیه این باور است که ماشین‌ها نمی‌توانند انسان را کنترل کنند. هوش موجب کنترل می‌شود: انسان چون باهوش‌تر است، می‌تواند ببرها را کنترل ‌کند. درنتیجه اگر ما باهوش‌ترین موجود این سیاره نباشیم، ممکن است دیگر رئیس هم نباشیم. آیا ماشین‌های هوشمند جای ما را می‌گیرند؟ یا کنارمان زندگی می‌کنند؟ یا با ما ادغام می‌شوند؟ انسان بودن در عصر هوش مصنوعی به چه معناست؟ دوست دارید انسان بودن چگونه باشد و راه عملی کردن آن در آینده چیست؟ در صورتی مطلب مزایا و معایب هوش مصنوعی برای شما مفید بوده است:

متن کامل نوشته در سایت فرانش

منبع بلاگ

فرانش

فرانش

مشاهده و فروش آموزش ویدئویی

نظرات