/

1399-07-29

هوش مصنوعی و نابودی جهان

آیا جهان با هوش مصنوعی نابود می شود؟

هوش مصنوعی

(بر اساس کتاب فوق هوش) هوش مصنوعی از نظر قدرت تصمیم گیری به سه دسته (با اصطلاح بهتر دوره) تقسیم می شود.

دوره اول (که در حال حاضر در آن هستیم) AI

دوره ای که سعی می کنیم مسائلی را که در اطراف خود می بینیم به عنوان مسائل بهینه سازی در نظر بگیریم و با روش های ریاضی برای آنها راه حل پیدا کنیم. نقطه قوت کامپیوتر در مقایسه با ما انسان ها سرعت پردازش داده ها است و ما سعی می کنیم از این قدرت برای توسعه الگوریتم های یادگیری ماشین استفاده کنیم.

اشتباه نکنید، هر الگوریتمی که برای یادگیری ماشین نوشته می شود، نوعی توابع ریاضی است و اتفاق عجیبی در آن نمی افتد! فقط حجم عظیمی از محاسبات توسط کامپیوترها انجام می شود. در این دوره با استفاده از این الگوریتم ها قادریم انسان ها (خودمان!) را در بسیاری از مسائل شکست دهیم.

دوره دوم، هوش عمومی مصنوعی (AGI)

در این دوره یک ماشین هوشمند قادر به انجام هر  فکری که انسان میکند می تواند باشد و به عبارت بهتر هوش ماشینی معادل هوش انسان خواهد بود.

تست های مختلفی برای این کار تعریف شده است (مثل آزمون تورینگ) و زمانی که این تست ها را با موفقیت پشت سر بگذاریم به هوش عمومی می رسیم اما جالب است بدانید که حداقل 2 دهه با این نقطه فاصله داریم. مشکلات زیادی پیش روی ماست اما چیزی که ما را نگران می کند این دوره نیست، دوره سوم است.

دوره سوم یک دوره فرضی به نام ابرهوش

که در آن هوش ماشینی از هوش انسان پیشی می گیرد، بنابراین ماشین بدون نیاز به انسان می تواند خودش را بهبود ببخشد و با پدیده ای به نام انفجار اطلاعات مواجه خواهیم شد.

این نظریه توسط نیک بوستروم، استاد دانشگاه آکسفورد ارائه شد و وی در کتاب خود با عنوان ابر هوش به نقد و تحلیل این نظریه پرداخت. او معتقد است که ضعف انسان در مدیریت تکینگی تکنولوژی باعث انقراض نسل بشر خواهد شد.

چه از روی عمد و چه از روی اشتباه! به عنوان مثال، ممکن است از یک ماشین فوق هوشمند بخواهیم به گرسنگی جهان پایان دهد، در یک سناریو این دستگاه می تواند با کشتن انسان های گرسنه به گرسنگی پایان دهد!

اگر فکر چنین پدیده ای برای شما دیوانه کننده به نظر می رسد، به یاد داشته باشید که جان فون نویمان و برتراند راسل از حمله هسته ای آمریکا به اتحاد جماهیر شوروی (برای جلوگیری از دستیابی شوروی به سلاح هسته ای) حمایت کردند! یا به حمله اتمی آمریکا به هیروشیما و ناکازاکی فکر کنید. برای چنین مواردی، مصلحت اندیشی انسان به نفع «همه» بشریت تمام نشده است! بنابراین این اتفاق می تواند با ماشین نیز رخ دهد …

اگر از طرفداران فیلم های علمی تخیلی (مثل من) هستید، قطعا دستیار HAL 9000 در فیلم 2001: A Space Odyssey را به خاطر دارید. ایده هوش مصنوعی عمومی جرقه طراحی دستیار HAL 9000 توسط استنلی کوبریک و آرتور کلارک شد.

هوش مصنوعی

هوش مصنوعی عمدتاً در دو زمینه می تواند ما را به خطر بیندازد:

مورد اول: برای مواقعی که از هوش مصنوعی برای انجام ماموریت های مخرب استفاده می شود. سلاح های خودکار برای کشتن انسان ها برنامه ریزی شده اند. این گونه سلاح ها تنها با فشار دادن یک دکمه غیرفعال نمی شوند، زیرا کشورها و شرکت های سازنده چنین سلاحی نمی خواهند سلاح ها به سادگی غیرفعال شوند.

یا برای درک بهتر، ماشینی را تصور کنید که از داده های خود برای تولید اخبار جعلی استفاده می کند. (اگر به تاثیر اخبار جعلی بر جامعه اعتقاد ندارید، حتما به پادکست Post-Truth Stringcast گوش دهید تا ببینید چگونه اخبار جعلی می تواند دونالد ترامپ را رئیس جمهور کند!)

حالت دوم: هوش مصنوعی به انجام کار مفید اختصاص دارد، اما برای انجام این کار مفید، کار مخربی انجام می دهد. مثال پایان دادن به گرسنگی در بالا نمونه ای از این موضوع است. آیا ما و ماشین ها به یک درک مشترک می رسیم؟! هشدارهای هاوکینگ، ماسک و گیتس بیشتر در این مناطق است.

این خطرات ما را با این سوال مواجه می‌کند که آیا می‌توانیم هوش مصنوعی را کنترل کنیم؟ ما هنوز پاسخ روشنی برای این سوال نداریم. برای درک بهتر این پاسخ، ابتدا باید موانع بر سر راه خود را به سمت تکینگی درک کنیم.

هوش مصنوعی

موانع بر سر راه هوش مصنوعی عمومی

♦ اولین مانع : الگوریتم یادگیری جامع

پدرو دومینگوس در کتاب خود الگوریتم استاد، این باور را توصیف می کند که در مسیر تکینگی، ابتدا باید الگوریتمی را کشف کنیم که می تواند بدون نظارت انسان یاد بگیرد. او در کتاب خود شکل زیر را آورده و در توضیح خود می نویسد که این ابرالگوریتم باید بتواند تمام شاخه های هوش مصنوعی را به هم متصل کند.

♦ دومین مانع : قدرت پردازش داده ها

یک دستگاه هوشمند باید قادر به پردازش ترابایت داده باشد. پردازش این مقدار داده (با سخت افزار فعلی) ممکن است سال ها (یا حتی قرن ها) طول بکشد زیرا الگوریتم های یادگیری فعلی آنقدرها که فکر می کنید بهینه نیستند.

از طرفی ما هنوز الگوریتم جامع را کشف نکرده ایم، اما می توان گفت که آن الگوریتم آنقدر که فکر می کنیم بهینه نخواهد بود! بنابراین، در نتیجه، ابزارهای فعلی ما برای پردازش این مقدار داده کافی نیست. مطالعات آماری به ما می گوید که در سال 2030 سخت افزار لازم برای چنین پردازش هایی را خواهیم داشت.

اما این چه نوع سخت افزاری خواهد بود؟ پردازنده کوانتومی؟ آیا می توانیم این سخت افزارها را در ابعاد کوچک تولید کنیم؟ ما پاسخ روشنی برای این سوال نداریم.

♦ سومین مانع : مسئله شعور

وقتی Call of Duty را بازی می کنید، شما فردی هستید که سرباز را کنترل می کنید. شما آن سرباز را از طریق رایانه خود کنترل می کنید. چه چیزی ما را کنترل می کند؟ این سؤالی است که فلاسفه بارها آن را تکرار کرده اند; منشأ آگاهی انسان چیست؟ چه نیرویی ما را کنترل می کند؟ آیا ما واقعا آزادیم؟

آیا می توانیم یک ماشین آگاه تولید کنیم؟ ماشینی که با استقلال کامل از انسان توانایی تفکر و تصمیم گیری را دارد و نیازی به کنترل انسان ندارد.

نتیجه
شاید تصورات فعلی ما از آینده هوش مصنوعی روشن و خوش بینانه نباشد، اما باید در نظر داشته باشیم که ده ها و قرن ها تا رسیدن به آن نقطه فاصله داریم.

ما هنوز پاسخ روشنی برای سوالات بزرگی مانند آگاهی نداریم و راه زیادی در پیش داریم.

با ما در تماس باشید…