انقلاب هوش مصنوعی: جاودانگی یا انقراض ما

خلاصه مقاله

مقاله “هوش مصنوعی: انقلاب” نوشته تیم اوربان به عمق بیشتری از پیچیدگی‌های هوش مصنوعی، به ویژه مفهوم هوش مصنوعی فوق‌العاده (ASI) می‌پردازد.

نکات کلیدی مقاله

  • سرعت پیشرفت فناوری: مقاله به رشد نمایی قدرت محاسباتی و تأثیرات آن بر توسعه هوش مصنوعی اشاره می‌کند. این مقاله نشان می‌دهد که ممکن است به ایجاد هوش مصنوعی ابرهوشمند نزدیک‌تر باشیم از آنچه تصور می‌کنیم.
  • انفجار هوش: یک مفهوم کلیدی “انفجار هوش” است، جایی که یک هوش مصنوعی از هوش انسان فراتر رفته و به سرعت خود را بهبود می‌بخشد و به سطح هوشی بسیار فراتر از درک انسان می‌رسد.
  • مزایای بالقوه: نویسنده به پتانسیل عظیم ASI می‌پردازد، از جمله حل مشکلات جهانی مانند تغییرات آب و هوایی، بیماری‌ها و فقر. همچنین می‌تواند منجر به پیشرفت‌های علمی و پیشرفت در زمینه‌های مختلف شود.
  • خطر وجودی: بخش قابل توجهی از مقاله بر خطرات بالقوه ASI تمرکز دارد. سناریوهایی را مورد بحث قرار می‌دهد که در آن اهداف یک هوش مصنوعی با ارزش‌های انسانی همسو نبوده و منجر به عواقب فاجعه‌بار می‌شود. مفهوم “مشکل کنترل” معرفی شده است که بر اهمیت اطمینان از تراز بودن یک هوش مصنوعی ابرهوشمند با منافع انسانی تأکید می‌کند.
  • جدول زمانی‌های مختلف: مقاله دیدگاه‌های مختلفی را در مورد جدول زمانی توسعه ASI ارائه می‌دهد، از دیدگاه‌های خوش‌بینانه چند دهه تا برآوردهای محتاطانه‌تر چند قرن.
  • اهمیت توسعه دقیق: نویسنده بر لزوم برنامه‌ریزی و تحقیق دقیق برای اطمینان از همسو بودن توسعه ASI با ارزش‌ها و ایمنی انسان تأکید می‌کند.

توجه: این ترجمه ماشینی (با کمی اصلاح و ویرایش) از مقاله بسیار خواندنی با عنوان “The AI Revolution: The Road to Superintelligence” وبسایت Wait But why است. منتشر شده در سال ۲۰۱۵. ترجمه قسمت قبل در اینجاست.


PDF: ما یک PDF فانتزی از این پست برای چاپ و مشاهده آفلاین تهیه کردیم. از اینجا بخر (یا یک پیش نمایش را ببینید .)

توجه: این قسمت ۲ از یک مجموعه دو قسمتی در زمینه هوش مصنوعی است. قسمت ۱ اینجاست .

___________

ما مشکلی داریم که ممکن است بسیار دشوار باشد با زمان نامعلومی برای حل آن، که احتمالاً کل آینده بشریت به آن بستگی دارد. – نیک بوستروم

به قسمت ۲ از مجموعه “صبر کنید چگونه این احتمالاً چیزی است که من می خوانم، من نمی فهمم چرا همه در مورد این موضوع صحبت نمی کنند” خوش آمدید.

بخش ۱ به اندازه کافی بی‌گناه شروع شد، زیرا در مورد هوش باریک مصنوعی یا ANI (هوش مصنوعی که در یک کار باریک مانند ایجاد مسیرهای رانندگی یا بازی شطرنج تخصص دارد) و چگونگی وجود آن در سراسر جهان امروز صحبت کردیم. سپس بررسی کردیم که چرا رسیدن از ANI به هوش عمومی مصنوعی یا AGI (AI که حداقل به اندازه یک انسان توانایی عقلانی دارد)، و بحث کردیم که چرا سرعت نمایی پیشرفت تکنولوژی ما چیست؟ دیده شده در گذشته نشان می دهد که AGI ممکن است آنقدر که به نظر می رسد دور نباشد. قسمت ۱ با حمله من به شما با این واقعیت به پایان رسید که هنگامی که ماشین های ما به هوش سطح انسانی رسیدند، ممکن است فوراً این کار را انجام دهند:

قطار 1

قطار 2

قطار 3

قطار 4

این باعث شد که به صفحه نمایش خیره شویم، و با مفهوم شدید ابرهوش مصنوعی بالقوه در زندگی خود، یا ASI (هوش مصنوعی که بسیار باهوش‌تر از هر انسان دیگری است)، روبرو شویم و سعی کنیم بفهمیم قرار است کدام احساس را داشته باشیم. همانطور که در مورد آن فکر می کردیم ادامه دهید.۱۱← اینها را باز کنید

قبل از اینکه در مورد چیزها غوطه ور شویم، بیایید به خود یادآوری کنیم که فوق هوشمند بودن یک ماشین چه معنایی دارد.

یک تمایز کلیدی تفاوت بین ابرهوش سرعت و ابرهوش کیفیت است . اغلب، اولین فکر کسی که تصور می‌کند یک کامپیوتر فوق‌هوشمند را تصور می‌کند، کامپیوتری است که مانند یک انسان باهوش است، اما می‌تواند خیلی خیلی سریعتر فکر کند.۲آنها ممکن است ماشینی را به تصویر بکشند که مانند یک انسان فکر می‌کند، به جز میلیون‌ها بار سریع‌تر، که به این معنی است که می‌تواند در عرض پنج دقیقه بفهمد که یک دهه چقدر طول می‌کشد.

این تاثیرگذار به نظر می‌رسد، و ASI خیلی سریع‌تر از هر انسانی فکر می‌کند – اما جداکننده واقعی مزیت آن در کیفیت هوش است ، که چیزی کاملاً متفاوت است. چیزی که انسان ها را از نظر عقلی بسیار بیشتر از شامپانزه ها می کند، تفاوت در سرعت فکر نیست – بلکه این است که مغز انسان دارای تعدادی ماژول های شناختی پیچیده است که چیزهایی مانند بازنمایی های پیچیده زبانی یا برنامه ریزی طولانی مدت یا استدلال انتزاعی را امکان پذیر می کند، که مغز شامپانزه ها این کار را نمی کند. . هزاران بار سرعت بخشیدن به مغز یک شامپانزه او را به سطح ما نمی رساند – حتی با گذشت یک دهه، او نمی تواند بفهمد چگونه از مجموعه ای از ابزارهای سفارشی برای مونتاژ یک مدل پیچیده، چیزی شبیه به انسان استفاده کند. می تواند در چند ساعت ناک اوت شود دنیاهایی از عملکرد شناختی انسان وجود دارد که یک شامپانزه به سادگی قادر به انجام آنها نیست، مهم نیست چقدر زمان صرف تلاش می کند.

اما مسئله فقط این نیست که یک شامپانزه نمی‌تواند کاری را که ما انجام می‌دهیم انجام دهد، بلکه مغز او قادر به درک وجود آن دنیاها نیست – یک شامپانزه می‌تواند با چیستی انسان و آسمان‌خراش آشنا شود، اما هرگز نمی‌تواند قادر به درک اینکه آسمان خراش توسط انسان ساخته شده است . در دنیای او، هر چیزی که بزرگ باشد بخشی از طبیعت، دوره است، و نه تنها ساختن آسمان خراش فراتر از اوست، بلکه درک اینکه هرکسی می تواند آسمان خراش بسازد، فراتر از اوست. این نتیجه یک تفاوت کوچک در کیفیت هوش است.

و در طرح محدوده هوشی که امروز در مورد آن صحبت می کنیم، یا حتی محدوده بسیار کوچکتر در میان موجودات زیستی، شکاف هوشی کیفیت شامپانزه به انسان بسیار ناچیز است . در پست قبلی ، محدوده ظرفیت شناختی بیولوژیکی را با استفاده از یک راه پله به تصویر کشیدم:۳

راه پله

برای درک اینکه یک ماشین فوق هوشمند چقدر کار بزرگی خواهد بود، ماشینی را روی پله سبز تیره دو پله بالاتر از انسان در آن پلکان تصور کنید. این ماشین فقط کمی فوق هوشمند خواهد بود، اما افزایش توانایی شناختی آن بر ما به اندازه شکاف شامپانزه-انسان که قبلاً توضیح دادیم، گسترده خواهد بود. و مانند ناتوانی شامپانزه در جذب آسمان‌خراش‌هایی که می‌توان ساخت، ما هرگز قادر نخواهیم بود حتی کارهایی را که یک ماشین روی پله سبز تیره می‌تواند انجام دهد را درک کنیم، حتی اگر ماشین سعی کند آن را برای ما توضیح دهد – چه رسد به اینکه خودمان این کار را انجام دهیم. . و این فقط دو پله بالاتر از ماست. ماشینی که بر روی پله دوم به بلندترین پله پلکان قرار دارد، برای ما مانند مورچه‌ها خواهد بود – می‌تواند سال‌ها تلاش کند تا ساده‌ترین تصورات را از آنچه می‌داند به ما بیاموزد و این تلاش ناامیدکننده خواهد بود.

اما نوع ابرهوشی که امروز در مورد آن صحبت می کنیم چیزی فراتر از هر چیزی در این راه پله است. در یک انفجار اطلاعاتی – جایی که یک ماشین هوشمندتر می شود، سریعتر می تواند هوش خود را افزایش دهد، تا زمانی که شروع به اوج گرفتن به سمت بالا کند – ممکن است یک ماشین سال ها طول بکشد تا از پله شامپانزه به پله بالای آن برسد، اما شاید فقط چند ساعت طول بکشد. وقتی روی پله سبز تیره دو بالای ما قرار گرفت، یک پله بالا پرید، و زمانی که ده پله بالاتر از ما قرار گرفت، ممکن است هر ثانیه که می گذرد با چهار پله پرش بالا می رود. به همین دلیل است که ما باید بدانیم که این امکان کاملاً مشخص است که مدت کوتاهی پس از خبر بزرگ در مورد اولین ماشینی که به AGI در سطح انسان می رسد، ممکن است با واقعیت همزیستی روی زمین با چیزی که در اینجا روی پلکان است (یا شاید) روبرو شویم. یک میلیون برابر بیشتر):

پله 2

و از آنجایی که ما به تازگی ثابت کردیم که تلاش برای درک قدرت یک ماشین تنها دو پله بالاتر از ما یک فعالیت ناامیدکننده است، بیایید یک بار برای همیشه به طور دقیق بیان کنیم که هیچ راهی برای دانستن اینکه ASI چه خواهد کرد یا عواقب آن چه خواهد بود وجود ندارد. برای ما. هرکسی که خلاف این را وانمود می کند، نمی فهمد ابرهوشی یعنی چه.

تکامل مغز بیولوژیکی را به آرامی و به تدریج طی صدها میلیون سال پیشرفت داده است، و از این نظر، اگر انسان ها یک دستگاه ASI را به دنیا بیاورند، به طرز چشمگیری بر روی تکامل لگدمال می کنیم. یا شاید این بخشی از تکامل باشد – شاید روشی که تکامل کار می‌کند این باشد که هوش بیشتر و بیشتر می‌خزد تا زمانی که به سطحی می‌رسد که قادر به ایجاد ابرهوش ماشینی است، و آن سطح مانند سیمی است که باعث ایجاد یک انفجار جهانی می‌شود که بازی را تغییر می‌دهد. آینده جدیدی را برای همه موجودات زنده تعیین می کند:

Tripwire

و به دلایلی که بعداً در مورد آنها صحبت خواهیم کرد، بخش بزرگی از جامعه علمی معتقدند که مهم این نیست که آیا ما به آن سه سیم ضربه می زنیم یا نه، بلکه مهم این است که چه زمانی. یک نوع اطلاعات دیوانه کننده.

بنابراین این ما را به چه نتیجه ای میرساند؟

خوب، هیچ کس در دنیا، به خصوص نه من، نمی تواند به شما بگوید که چه اتفاقی می افتد وقتی که ما به سیم تریپ برخورد کنیم. اما نیک بوستروم، فیلسوف آکسفورد و متفکر اصلی هوش مصنوعی معتقد است که می‌توانیم همه نتایج بالقوه را به دو دسته کلی تقسیم کنیم.

ابتدا، با نگاهی به تاریخ، می‌توانیم ببینیم که زندگی به این صورت عمل می‌کند: گونه‌ها ظاهر می‌شوند، برای مدتی وجود دارند، و پس از مدتی، ناگزیر از پرتو تعادل هستی می‌افتند و در معرض انقراض قرار می‌گیرند.

پرتو 1

«همه گونه‌ها در نهایت منقرض می‌شوند» تقریباً به همان اندازه قابل اعتماد در طول تاریخ بوده است که «همه انسان‌ها در نهایت می‌میرند». تاکنون ۹۹.۹ درصد از گونه‌ها از پرتو تعادل سقوط کرده‌اند، و کاملاً واضح به نظر می‌رسد که اگر گونه‌ای همچنان در طول پرتو تکان می‌خورد، چند گونه دیگر، وزش باد طبیعت یا ناگهانی یک موضوع زمان است. سیارک پرتو تکان آن را می زند. بوستروم انقراض را یک حالت جاذب می نامد – مکانی که گونه ها همه در حال سقوط در آن هستند و هیچ گونه ای هرگز از آن باز نمی گردد.

و در حالی که اکثر دانشمندانی که من با آنها برخورد کرده‌ام اذعان دارند که ASI می‌تواند انسان را به سمت انقراض بفرستد، بسیاری نیز معتقدند که با استفاده مفید، از توانایی‌های ASI می‌توان برای رساندن انسان‌ها و کل گونه‌ها به یک جاذبه دوم استفاده کرد. حالت-جاودانگی گونه ها. بوستروم معتقد است جاودانگی گونه ها به اندازه انقراض گونه ها یک حالت جذب کننده است، یعنی اگر ما موفق به رسیدن به آنجا شویم، برای همیشه در برابر انقراض نفوذناپذیر خواهیم بود – ما بر مرگ و میر و شانس غلبه خواهیم کرد. بنابراین، با وجود اینکه همه گونه‌ها تاکنون از پرتو تعادل سقوط کرده و در معرض انقراض قرار گرفته‌اند، بوستروم معتقد است که دو طرف پرتو وجود دارد و فقط این است که هیچ چیز روی زمین هنوز به اندازه کافی هوشمند نبوده است که بفهمد چگونه می‌تواند در سمت دیگر سقوط کند. .

پرتو 2

اگر بوستروم و دیگران درست می‌گویند، و با توجه به همه چیزهایی که من خوانده‌ام، به نظر می‌رسد که واقعاً ممکن است اینطور باشد، دو واقعیت بسیار تکان‌دهنده برای جذب داریم:

۱) ظهور ASI برای اولین بار امکان فرود یک گونه در سمت جاودانگی پرتو تعادل را فراهم می کند.

۲) ظهور ASI چنان تأثیر شگفت‌انگیزی ایجاد می‌کند که احتمالاً نسل بشر را در یک جهت یا جهت دیگر از بین می‌برد.

به خوبی ممکن است زمانی که تکامل به سیم تریپ می رسد، رابطه انسان ها با پرتو را برای همیشه خاتمه می دهد و دنیای جدیدی را با یا بدون انسان ایجاد می کند.

به نظر می رسد تنها سوالی که هر انسانی در حال حاضر باید بپرسد این است: چه زمانی قرار است به سیم تریپ برخورد کنیم و زمانی که این اتفاق بیفتد در کدام سمت پرتو فرود خواهیم آمد؟

هیچ کس در جهان پاسخ هر یک از این سؤالات را نمی داند، اما بسیاری از بسیار باهوش ترین افراد چندین دهه برای آن فکر کرده اند. ما بقیه این پست را صرف بررسی آنچه که آنها به دست آورده اند می پردازیم.

___________

بیایید با قسمت اول این سوال شروع کنیم: کی قرار است به تریپ وایر بزنیم؟

یعنی چقدر طول می کشد تا اولین ماشین به ابرهوشی برسد؟

عجیب نیست، نظرات به شدت متفاوت است و این یک بحث داغ بین دانشمندان و متفکران است. بسیاری مانند پروفسور ورنور وینج ، دانشمند بن گورتزل ، بیل جوی ، یکی از بنیانگذاران Sun Microsystems ، یا مشهورترین آنها، مخترع و آینده پژوه ، ری کورزویل ، با جرمی هوارد، متخصص یادگیری ماشین، زمانی که این نمودار را در طول سخنرانی TED ارائه می دهد، موافق هستند :

هاوارد گراف

این افراد معتقدند که این به زودی اتفاق می‌افتد – که رشد تصاعدی در کار است و یادگیری ماشینی، اگرچه اکنون به آرامی به سمت ما می‌آید، در چند دهه آینده درست از پیش ما خواهد گذشت.

دیگران، مانند پل آلن ، بنیانگذار مایکروسافت ، گری مارکوس روانشناس پژوهشی ، ارنست دیویس ، دانشمند کامپیوتر دانشگاه نیویورک ، و میچ کاپور ، کارآفرین فناوری ، معتقدند که متفکرانی مانند کورزویل به شدت بزرگی چالش را دست کم می گیرند و معتقدند که ما واقعاً به آن نزدیک نیستیم. به تریپ وایر

اردوگاه کورزویل می‌گوید که تنها چیزی که در حال رخ دادن است، کم‌توجهی به رشد تصاعدی است، و آنها شک‌ها را با کسانی که به نهال کند رشد اینترنت در سال ۱۹۸۵ نگاه می‌کردند و استدلال می‌کردند که هیچ راهی وجود ندارد، مقایسه می‌کنند. به هر چیزی که در آینده نزدیک تاثیرگذار باشد.

مشکوکان ممکن است استدلال کنند که پیشرفت مورد نیاز برای پیشرفت در هوش نیز با هر مرحله بعدی به طور تصاعدی سخت‌تر می‌شود، که ماهیت نمایی معمولی پیشرفت فناوری را خنثی می‌کند. و غیره.

اردوگاه سوم، که شامل نیک بوستروم است ، معتقد است که هیچ یک از گروه ها هیچ زمینه ای برای احساس اطمینان در مورد جدول زمانی ندارند و اذعان می کند که الف) این اتفاق می تواند در آینده نزدیک بیفتد و ب) هیچ تضمینی در مورد آن وجود ندارد. همچنین ممکن است زمان بسیار بیشتری طول بکشد.

با این حال، دیگران، مانند فیلسوف هوبرت دریفوس ، معتقدند که هر سه این گروه ساده لوح هستند و معتقدند که حتی یک سیم پیچی وجود دارد، و استدلال می‌کنند که احتمال اینکه ASI واقعاً هرگز محقق نشود، بسیار ساده لوح هستند.

پس وقتی همه این نظرات را کنار هم می گذارید چه چیزی به دست می آورید؟

در سال ۲۰۱۳، وینسنت سی مولر و نیک بوستروم نظرسنجی را انجام دادند که در آن از صدها متخصص هوش مصنوعی در مجموعه‌ای از کنفرانس‌ها سؤال زیر پرسیده شد: «برای اهداف این سؤال، فرض کنید که فعالیت علمی انسان بدون اختلال منفی عمده ادامه دارد. در چه سالی احتمال (۱۰% / ۵۰% / ۹۰%) برای چنین HLMI وجود دارد۴خارج شدن؟” از آنها خواسته شد که یک سال خوشبینانه نام ببرند (سالی که معتقدند ۱۰ درصد احتمال دارد که AGI داشته باشیم)، یک حدس واقع بینانه (سالی که معتقدند ۵۰٪ احتمال AGI وجود دارد – یعنی بعد از آن سال آنها فکر می کنند که بیشتر است. به احتمال زیاد ما AGI خواهیم داشت)، و یک حدس مطمئن (اوایل سالی که می‌توانند با اطمینان ۹۰ درصدی بگویند که AGI خواهیم داشت). این نتایج به عنوان یک مجموعه داده جمع آوری شده است:۲

میانه سال خوش بینانه (۱۰% احتمال): ۲۰۲۲
میانه سال واقعی (۵۰% احتمال): ۲۰۴۰
میانه سال بدبینانه (۹۰% احتمال): ۲۰۷۵

بنابراین شرکت‌کننده میانه فکر می‌کند که احتمال بیشتری وجود دارد که ۲۵ سال آینده AGI داشته باشیم. پاسخ متوسط ​​۹۰ درصدی ۲۰۷۵ به این معنی است که اگر در حال حاضر یک نوجوان هستید، پاسخگوی متوسط، همراه با بیش از نیمی از گروه متخصصان هوش مصنوعی، تقریباً مطمئن است که AGI در طول زندگی شما اتفاق خواهد افتاد.

مطالعه جداگانه‌ای که اخیراً توسط نویسنده جیمز بارات در کنفرانس سالانه AGI بن گورتزل انجام شد، درصدها را حذف کرد و به سادگی از شرکت‌کنندگان پرسید که چه زمانی به AGI دست می‌یابد – تا سال ۲۰۳۰، تا سال ۲۰۵۰، تا سال ۲۱۰۰، پس از سال ۲۱۰۰ یا هرگز. نتایج:۳

تا سال ۲۰۳۰: ۴۲ درصد از پاسخ دهندگان
تا سال ۲۰۵۰: ۲۵ درصد
تا سال ۲۱۰۰: ۲۰ درصد
پس از ۲۱۰۰: ۱۰ درصد
هرگز: ۲ درصد

بسیار شبیه به نتایج مولر و بوستروم. در نظرسنجی Barrat، بیش از دو سوم از شرکت کنندگان معتقدند AGI تا سال ۲۰۵۰ اینجا خواهد بود و کمی کمتر از نیمی از آنها AGI را در ۱۵ سال آینده پیش بینی می کنند. همچنین قابل توجه این است که تنها ۲ درصد از افراد مورد بررسی فکر نمی کنند AGI بخشی از آینده ما باشد.

اما AGI اتصال سیم نیست، ASI است. پس کارشناسان فکر می کنند چه زمانی به ASI می رسیم؟

مولر و بوستروم همچنین از کارشناسان پرسیدند که چقدر احتمال دارد که ما به ASI A) در عرض دو سال پس از رسیدن به AGI (یعنی یک انفجار اطلاعاتی تقریباً فوری) و B) در عرض ۳۰ سال برسیم. نتایج:۴

پاسخ متوسط، انتقال سریع (۲ ساله) AGI → ASI را تنها با احتمال ۱۰٪ ، اما انتقال طولانی تر ۳۰ سال یا کمتر را با احتمال ۷۵٪ نشان می دهد .

ما از این داده ها نمی دانیم که میانگین طول این انتقال احتمال ۵۰ درصدی را برای شرکت کنندگان در نظر می گرفت، اما برای اهداف مهم، بر اساس دو پاسخ بالا، بیایید تخمین بزنیم که آنها ۲۰ سال می گفتند. بنابراین، نظر متوسط ​​- همان نظری که دقیقاً در مرکز دنیای متخصصان هوش مصنوعی قرار دارد – معتقد است که واقعی‌ترین حدس برای اینکه چه زمانی به سیم‌پیچ ASI برخورد می‌کنیم [پیش‌بینی ۲۰۴۰ برای AGI + پیش‌بینی تخمینی ما از انتقال ۲۰ ساله از AGI به ASI] = 2060 .

جدول زمانی

البته، تمام آمارهای فوق حدس و گمان هستند و آنها تنها نماینده نظر مرکز جامعه متخصصان هوش مصنوعی هستند، اما به ما می گوید که بخش بزرگی از افرادی که بیشتر در مورد این موضوع می دانند موافق هستند که سال ۲۰۶۰ است. یک تخمین بسیار معقول برای ورود ASI بالقوه در حال تغییر جهان. فقط ۴۵ سال دیگه

خوب حالا قسمت دوم سوال بالا چطور است: وقتی به سیم تریپ برخورد می کنیم، به کدام سمت تیر می افتیم؟

هوش فوق‌العاده قدرت فوق‌العاده‌ای به همراه خواهد داشت – سوال مهم برای ما این است:

چه کسی یا چه چیزی کنترل آن قدرت را در دست خواهد داشت و انگیزه آنها چه خواهد بود؟

پاسخ به این موضوع مشخص می‌کند که آیا ASI یک توسعه فوق‌العاده باورنکردنی است، یک توسعه وحشتناک غیرقابل درک، یا چیزی در این بین.

البته جامعه کارشناسی باز هم سرتاسر و در حال بحث داغ درباره پاسخ به این سوال است. نظرسنجی مولر و بوستروم از شرکت کنندگان خواست تا احتمالاتی را برای تأثیرات احتمالی AGI بر بشریت تعیین کنند و دریافتند که میانگین پاسخ این بود که ۵۲ درصد احتمال دارد که نتیجه خوب یا بسیار خوب باشد و ۳۱ درصد احتمال نتیجه وجود دارد. یا بد خواهد بود یا بسیار بد. برای یک نتیجه نسبتاً خنثی، میانگین احتمال فقط ۱۷٪ بود. به عبارت دیگر، افرادی که بیشتر در مورد این موضوع می دانند، مطمئن هستند که این یک معامله بزرگ خواهد بود. همچنین شایان ذکر است که این اعداد به ظهور AGI اشاره دارد – اگر سوال در مورد ASI بود، تصور می‌کنم که درصد خنثی حتی کمتر می‌شد.

قبل از اینکه خیلی بیشتر در مورد این بخش نتیجه خوب در مقابل بد از سوال غوطه ور شویم، بیایید هر دو عبارت “چه زمانی اتفاق می افتد؟” را با هم ترکیب کنیم. و “آیا خوب خواهد بود یا بد؟” بخش هایی از این سوال در نموداری که نظرات اکثر کارشناسان مربوطه را در بر می گیرد:

مربع 1

در عرض یک دقیقه بیشتر در مورد مین کمپ صحبت خواهیم کرد، اما ابتدا – معامله شما چیست؟ در واقع من می دانم معامله شما چیست، زیرا قبل از شروع تحقیق در مورد این موضوع، این معامله من نیز بوده است. برخی از دلایلی که بیشتر مردم واقعاً به این موضوع فکر نمی کنند:

  • همانطور که در قسمت ۱ ذکر شد، فیلم ها با ارائه سناریوهای غیرواقعی هوش مصنوعی که باعث می شود احساس کنیم هوش مصنوعی چیزی نیست که به طور کلی جدی گرفته شود، واقعاً همه چیز را گیج کرده اند. جیمز بارات وضعیت را با واکنش ما مقایسه می‌کند، اگر مرکز کنترل بیماری هشدار جدی درباره خون‌آشام‌ها در آینده ما صادر کند.۵
  • انسانها تا زمانی که اثباتی را نبینیم، به سختی باور می کنند که چیزی واقعی است. من مطمئن هستم که دانشمندان علوم کامپیوتر در سال ۱۹۸۸ مرتباً در مورد اینکه اینترنت چقدر بزرگ خواهد بود صحبت می کردند، اما مردم احتمالاً واقعاً فکر نمی کردند که زندگی آنها را تغییر دهد تا زمانی که واقعاً زندگی آنها را تغییر دهد. این تا حدی به این دلیل است که کامپیوترها در سال ۱۹۸۸ نمی توانستند چنین کارهایی را انجام دهند، بنابراین مردم به رایانه خود نگاه می کردند و فکر می کردند: “واقعا؟ آیا این تغییر زندگی خواهد بود؟» تصورات آنها محدود به آنچه تجربه شخصی آنها در مورد چیستی رایانه به آنها آموخته بود، محدود بود، و این امر باعث می‌شد که تصور واضح و روشن رایانه‌ها به چه چیزی تبدیل شوند . همین اتفاق در حال حاضر با هوش مصنوعی در حال رخ دادن است. ما می شنویم که این یک اتفاق بزرگ خواهد بود، اما چون هنوز اتفاق نیفتاده است، و به دلیل تجربه ما با هوش مصنوعی نسبتا ناتوان در دنیای کنونی ما، واقعاً برایمان سخت است که باور کنیم این موضوع زندگی ما را به طرز چشمگیری تغییر خواهد داد. و این تعصبات چیزی است که کارشناسان با آن مقابله می کنند زیرا آنها دیوانه وار سعی می کنند توجه ما را از طریق سر و صدای خود جذبی روزانه جمعی به خود جلب کنند.
  • حتی اگر ما آن را باور کنیم – امروز چند بار به این واقعیت فکر کرده‌اید که بیشتر باقیمانده ابدیت را بدون وجود سپری خواهید کرد؟ زیاد نیست، درست است؟ حتی اگر این یک واقعیت بسیار شدیدتر از هر چیز دیگری است که امروز انجام می دهید؟ این به این دلیل است که مغز ما به طور معمول بر روی چیزهای کوچک در زندگی روزمره متمرکز است، مهم نیست که ما در یک موقعیت طولانی مدت چقدر دیوانه کننده هستیم. این دقیقاً نحوه اتصال ماست.

یکی از اهداف این دو پست این است که شما را از کمپ I Like to Think About Other Things خارج کنید و به یکی از کمپ های متخصص وارد شوید، حتی اگر فقط روی تقاطع دو خط نقطه چین در مربع بالا ایستاده باشید. ، کاملا نامشخص

در طول تحقیقاتم، به ده ها نظر متفاوت در مورد این موضوع برخورد کردم، اما به سرعت متوجه شدم که نظرات اکثر مردم در جایی که من “کمپ اصلی” نامیده بودم، سقوط می کند، و به ویژه، بیش از سه چهارم کارشناسان در دو کمپ فرعی در داخل اصلی قرار گرفتند. کمپ:

مربع 2

ما در هر دوی این اردوگاه ها غواصی خواهیم کرد. بیایید با سرگرم کننده شروع کنیم –

چرا آینده ممکن است بزرگترین رویای ما باشد؟

همانطور که در مورد دنیای هوش مصنوعی یاد گرفتم، تعداد زیادی از مردم را پیدا کردم که اینجا ایستاده اند:

مربع3

افراد حاضر در Confident Corner از هیجان غوغا می کنند. آنها نگاهشان به سمت سرگرم کننده پرتو تعادل است و متقاعد شده اند که همه ما به این سمت می رویم. برای آنها، آینده هر چیزی است که همیشه می توانستند به آن امید داشته باشند، درست به موقع.

چیزی که این افراد را از متفکران دیگری که بعداً در مورد آنها صحبت خواهیم کرد جدا می کند، شهوت آنها برای طرف شاد پرتو نیست – بلکه اعتماد آنها به این است که ما در آن سمت فرود خواهیم آمد.

اینکه این اطمینان از کجا می آید جای بحث دارد. منتقدان بر این باورند که این هیجان ناشی از هیجانی است که آنقدر کورکننده است که به سادگی پیامدهای منفی بالقوه را نادیده می گیرند یا انکار می کنند. اما مؤمنان می‌گویند ساده‌لوحانه‌ای است که سناریوهای روز قیامت را در شرایطی که تعادل برقرار است، تداعی کنیم، فناوری بیشتر از آن‌که به ما آسیب بزند، به ما کمک می‌کند و احتمالاً در نهایت ادامه خواهد داد.

ما هر دو طرف را پوشش می‌دهیم، و شما می‌توانید در حین خواندن نظر خود را در مورد این موضوع بسازید، اما برای این بخش، شک و تردید خود را کنار بگذارید و بیایید نگاه دقیقی به چیزهایی که در آنجا در قسمت سرگرم‌کننده تیر تعادل وجود دارد بیاندازیم. سعی کنید این واقعیت را درک کنید که چیزهایی که می خوانید ممکن است واقعاً اتفاق بیفتند . اگر به شکارچی-گردآورنده دنیای راحتی، فناوری و فراوانی بی‌پایان ما را نشان می‌دادید، برای او یک جادوی تخیلی به نظر می‌رسید – ما باید آنقدر متواضع باشیم تا بپذیریم که این امکان وجود دارد که تحولی به همان اندازه غیرقابل تصور در ما رخ دهد. آینده.

نیک بوستروم سه راه برای عملکرد یک سیستم هوش مصنوعی فوق‌هوشمند را شرح می‌دهد:۶

  • به عنوان یک اوراکل ، که تقریباً به هر سؤالی که برایش مطرح می شود، با دقت پاسخ می دهد، از جمله سؤالات پیچیده ای که انسان به راحتی نمی تواند به آنها پاسخ دهد – یعنی چگونه می توانم موتور ماشین کارآمدتری بسازم؟ گوگل یک نوع بدوی اوراکل است.
  • به عنوان یک جن ، که هر دستور سطح بالایی را که داده می‌شود اجرا می‌کند – از یک اسمبلر مولکولی برای ساخت نوع جدید و کارآمدتر موتور ماشین استفاده کنید – و سپس منتظر دستور بعدی خود می‌ماند.
  • به‌عنوان یک حاکمیت ، که به او یک تعقیب گسترده و بی‌پایان اختصاص داده شده است و اجازه دارد آزادانه در جهان فعالیت کند، و تصمیم‌های خودش را در مورد بهترین راه ادامه می‌دهد- راهی سریع‌تر، ارزان‌تر و ایمن‌تر از ماشین‌ها اختراع کنید تا انسان‌ها بتوانند خودشان را به طور خصوصی حمل کنند. .

این سوالات و وظایف، که برای ما پیچیده به نظر می‌رسند، برای یک سیستم فوق‌هوشمند مانند کسی به نظر می‌رسند که از شما می‌خواهد وضعیت «مداد من از روی میز افتاد» را بهبود بخشید، که با برداشتن آن و قرار دادن دوباره آن روی میز انجام می‌دهید. جدول.

Eliezer Yudkowsky ، ساکن خیابان اضطراب در نمودار بالا، این را به خوبی بیان کرد:

هیچ مشکل سختی وجود ندارد، فقط مشکلاتی وجود دارد که تا سطح مشخصی از هوش سخت هستند. کوچکترین ذره را به سمت بالا [در سطح هوش] حرکت دهید، و برخی از مشکلات ناگهان از “غیر ممکن” به “بدیهی” تغییر خواهند کرد. یک درجه قابل توجه به سمت بالا حرکت کنید و همه آنها آشکار می شوند.۷

تعداد زیادی از دانشمندان، مخترعان و کارآفرینان مشتاق در Confident Corner وجود دارند – اما برای گشت و گذار در روشن ترین سمت افق هوش مصنوعی، تنها یک نفر وجود دارد که ما به عنوان راهنمای تور خود می خواهیم.

ری کورزویل در حال قطبش است. در مطالعه‌ام، همه چیز را شنیدم، از پرستش خداگونه او و عقایدش گرفته تا تحقیر چشم‌گیر آنها. دیگران جایی در وسط بودند – نویسنده داگلاس هافستادتر، در بحث درباره ایده‌های کتاب‌های کورزویل، به شیوایی بیان کرد که «انگار غذای بسیار خوب و مقداری مدفوع سگ را برداشته و همه را با هم مخلوط کرده‌اید تا بتوانید. احتمالاً نمی توان فهمید که چه چیزی خوب است یا بد.”۸

چه ایده های او را دوست داشته باشید یا نه، همه موافق هستند که کورزویل چشمگیر است. او از نوجوانی شروع به اختراع چیزهایی کرد و در دهه‌های بعد، چندین اختراع دست یافت، از جمله اولین اسکنر تخت، اولین اسکنر که متن را به گفتار تبدیل می‌کرد (به نابینایان اجازه می‌داد متون استاندارد را بخوانند)، کورزویل معروف. سینت سایزر موسیقی (اولین پیانوی الکتریکی واقعی) و اولین تشخیص گفتار با واژگان بزرگ که به صورت تجاری به بازار عرضه شد. او نویسنده پنج کتاب پرفروش ملی است. او به خاطر پیش‌بینی‌های جسورانه‌اش مشهور است و سابقه بسیار خوبی در تحقق آنها دارد – از جمله پیش‌بینی او در اواخر دهه ۸۰، زمانی که اینترنت چیز مبهم بود و در اوایل دهه ۲۰۰۰، اینترنت جهانی خواهد شد. پدیده کورزویل توسط وال استریت ژورنال “نابغه بی قرار”، توسط فوربس “ماشین تفکر نهایی”، توسط مجله Inc. “وارث قانونی ادیسون” و توسط “بهترین فردی که در پیش بینی آینده هوش مصنوعی می شناسم” نامیده می شود. بیل گیتس.۹در سال ۲۰۱۲، لری پیج، یکی از بنیانگذاران گوگل، به کورزویل نزدیک شد و از او خواست تا مدیر مهندسی گوگل شود.۵در سال ۲۰۱۱، او دانشگاه Singularity را تأسیس کرد که توسط ناسا میزبانی می شود و بخشی از آن توسط گوگل حمایت می شود. برای یک زندگی بد نیست

این بیوگرافی مهم است. وقتی کورزویل چشم انداز خود را از آینده بیان می کند، کاملاً شبیه یک دیوونه به نظر می رسد، و نکته دیوانه کننده این است که او اینطور نیست – او مردی بسیار باهوش، آگاه و مرتبط در جهان است. ممکن است فکر کنید که او در مورد آینده اشتباه می کند، اما او احمق نیست. دانستن اینکه او یک شخص قانونی است من را خوشحال می کند ، زیرا از آنجایی که از پیش بینی های او برای آینده مطلع شده ام، شدیداً می خواهم که او درست باشد. و شما نیز انجام دهید. همانطور که پیش‌بینی‌های کورزویل را می‌شنوید، که بسیاری از متفکران گوشه مطمئن مانند پیتر دیاماندیس و بن گورتزل به اشتراک گذاشته شده‌اند ، سخت نیست که بفهمیم چرا او چنین پیروان پرشور و پرشوری دارد – معروف به تک‌نفرگان. در اینجا چیزی است که او فکر می کند قرار است اتفاق بیفتد:

جدول زمانی

کورزویل معتقد است که کامپیوترها تا سال ۲۰۲۹ به AGI خواهند رسید و تا سال ۲۰۴۵، ما نه تنها ASI، بلکه یک دنیای جدید کامل خواهیم داشت – زمانی که او آن را تکینگی می نامد. جدول زمانی مربوط به هوش مصنوعی او قبلاً به‌شدت بیش از حد غیرعادی تلقی می‌شد، و هنوز هم توسط بسیاری،۶اما در ۱۵ سال گذشته، پیشرفت‌های سریع سیستم‌های ANI، دنیای بزرگ‌تر کارشناسان هوش مصنوعی را به جدول زمانی کورزویل نزدیک‌تر کرده است. پیش‌بینی‌های او هنوز کمی جاه‌طلبانه‌تر از پاسخ‌دهنده متوسط ​​در نظرسنجی مولر و بوستروم است (AGI تا سال ۲۰۴۰، ASI تا سال ۲۰۶۰)، اما نه تا این حد.

تصویر کورزویل از تکینگی ۲۰۴۵ توسط سه انقلاب همزمان در بیوتکنولوژی، نانوتکنولوژی و از همه مهمتر هوش مصنوعی به وجود آمده است.

قبل از اینکه به جلو برویم—تقریباً در هر چیزی که در مورد آینده هوش مصنوعی می خوانید، فناوری نانو مطرح می شود، بنابراین برای یک دقیقه وارد این جعبه آبی شوید تا بتوانیم درباره آن بحث کنیم—

جعبه آبی فناوری نانو

نانوتکنولوژی کلمه ما برای فناوری است که با دستکاری موادی با اندازه بین ۱ تا ۱۰۰ نانومتر سروکار دارد. نانومتر یک میلیاردیم متر یا یک میلیونیم میلی متر است و این محدوده ۱ تا ۱۰۰ شامل ویروس ها (عرض ۱۰۰ نانومتر)، DNA (عرض ۱۰ نانومتر) و چیزهایی به کوچکی مولکول های بزرگ مانند هموگلوبین (۵ نانومتر) است. و مولکول های متوسط ​​مانند گلوکز (۱ نانومتر). اگر/وقتی نانوتکنولوژی را فتح کنیم، گام بعدی توانایی دستکاری اتم‌های منفرد است که فقط یک مرتبه قدر کوچک‌تر هستند (~.۱ نانومتر).۷

برای درک چالش انسان ها برای دستکاری ماده در آن محدوده، بیایید همین موضوع را در مقیاس بزرگتر در نظر بگیریم. ایستگاه فضایی بین المللی ۲۶۸ مایل (۴۳۱ کیلومتر) بالاتر از زمین قرار دارد. اگر انسان‌ها آنقدر بزرگ بودند که سرشان تا ایستگاه فضایی بین‌المللی می‌رسید، حدود ۲۵۰ هزار برابر بزرگ‌تر از الان بودند. اگر محدوده فناوری نانو ۱ تا ۱۰۰ نانومتری را ۲۵۰۰۰۰ برابر بزرگ‌تر کنید، ۲۵/۲ تا ۲.۵ سانتی‌متر می‌شود. بنابراین نانوتکنولوژی معادل غول انسانی است که به بلندی ایستگاه فضایی بین‌المللی است که چگونه می‌تواند با دقت اجسام پیچیده را با استفاده از موادی به اندازه یک دانه شن و کره چشم بسازد. برای رسیدن به سطح بعدی – دستکاری اتم‌های منفرد – این غول باید اجسامی را با دقت ۱/۴۰ میلی‌متر قرار دهد – بنابراین انسان‌هایی با اندازه معمولی کوچک برای دیدن آنها به یک میکروسکوپ نیاز دارند.۸

فناوری نانو اولین بار توسط ریچارد فاینمن در سال ۱۹۵۹ مورد بحث قرار گرفت و توضیح داد: «اصول فیزیک، تا آنجا که من می بینم، مخالف امکان مانور دادن اتم به اتم اشیا نیست. اصولاً ممکن است … برای یک فیزیکدان هر ماده شیمیایی را که شیمیدان یادداشت می کند سنتز کند …. چگونه؟ در جایی که شیمیدان می گوید، اتم ها را پایین بیاورید و به این ترتیب ماده را می سازید. به همین سادگی. اگر بتوانید نحوه حرکت تک تک مولکول ها یا اتم ها را دریابید، می توانید به معنای واقعی کلمه هر چیزی بسازید.

نانوتکنولوژی برای اولین بار در سال ۱۹۸۶، زمانی که مهندس اریک درکسلر پایه های آن را در کتاب اصلی خود Engines of Creation ارائه کرد، به یک حوزه جدی تبدیل شد، اما درکسلر پیشنهاد می کند که کسانی که به دنبال یادگیری در مورد مدرن ترین ایده ها در فناوری نانو هستند، بهتر است کتاب سال ۲۰۱۳ او را مطالعه کنند. , فراوانی رادیکال .

جعبه آبی خاکستری گو

ما اکنون در یک انحراف در یک انحراف هستیم . این خیلی سرگرم کننده است.۹

به هر حال، من شما را به اینجا آوردم زیرا این بخش واقعاً عجیب و غریب از علم فناوری نانو وجود دارد که باید در مورد آن به شما بگویم. در نسخه‌های قدیمی‌تر تئوری نانو، یک روش پیشنهادی برای مونتاژ نانو شامل ایجاد تریلیون‌ها نانوربات کوچک بود که برای ساختن چیزی کار می‌کردند. یکی از راه‌های ایجاد تریلیون‌ها نانوربات، ساختن ربات‌هایی است که می‌تواند خودش را تکرار کند و سپس اجازه می‌دهیم فرآیند بازتولید آن یکی را به دو تبدیل کند، آن دو را به چهار، چهار به هشت تبدیل کند، و در عرض یک روز، وجود خواهد داشت. چند تریلیون از آنها آماده حرکت هستند. این قدرت رشد تصاعدی است. باهوش، درسته؟

این هوشمندانه است تا زمانی که به طور تصادفی باعث آخرالزمان بزرگ و کامل زمین شود. مسئله این است که همان قدرت رشد تصاعدی که ساخت سریع تریلیون نانوربات را بسیار راحت می کند، تکرار خود را به یک چشم انداز وحشتناک تبدیل می کند . زیرا اگر سیستم دچار اشکال شود، و به جای توقف تکرار زمانی که مجموع به چند تریلیون مورد انتظار رسید، آنها فقط به تکرار کردن ادامه می دهند، چه؟ این نانوربات‌ها به گونه‌ای طراحی می‌شوند که هر ماده مبتنی بر کربن را برای تغذیه فرآیند همانندسازی مصرف کنند، و به طور ناخوشایندی، تمام زندگی مبتنی بر کربن است. زیست توده زمین حاوی حدود ۱۰۴۵ اتم کربن است. یک نانوربات از حدود ۱۰۶ اتم کربن تشکیل شده است ، بنابراین ۱۰۳۹ نانوربات تمام حیات روی زمین را مصرف می کند، که در ۱۳۰ تکرار اتفاق می افتد (۲۱۳۰ تقریباً ۱۰۳۹ است ) ، همانطور که اقیانوس های نانوربات ها (این گوه خاکستری است) به اطراف می چرخد. سیاره. دانشمندان فکر می کنند که یک نانوربات می تواند در حدود ۱۰۰ ثانیه تکثیر شود، به این معنی که این اشتباه ساده به طور نامناسبی به تمام زندگی روی زمین در ۳.۵ ساعت پایان می دهد.

یک سناریوی بدتر – اگر یک تروریست به نوعی فناوری نانوربات‌ها را به دست آورد و دانش برنامه‌نویسی آنها را داشت، می‌توانست چند تریلیون اولیه از آنها بسازد و آنها را طوری برنامه‌ریزی کند که بی‌صدا چند هفته را به طور مساوی در سرتاسر جهان پخش کنند. . سپس، همه آنها به یکباره حمله می‌کردند، و فقط ۹۰ دقیقه طول می‌کشید تا همه چیز را مصرف کنند – و با پخش شدن همه آنها، هیچ راهی برای مبارزه با آنها وجود نخواهد داشت.۱۰

در حالی که این داستان ترسناک سال‌ها به طور گسترده مورد بحث قرار گرفته است، خبر خوب این است که ممکن است بیش از حد غوطه‌ور باشد – اریک درکسلر، که اصطلاح “گوگ خاکستری” را ابداع کرد، پس از این پست یک ایمیل با افکار خود در مورد سناریوی خاکستری برای من ارسال کرد: مردم عاشق داستان های ترسناک هستند و این داستان متعلق به زامبی هاست. این ایده خودش مغزها را می خورد.»

هنگامی که واقعاً فناوری نانو را از بین می‌بریم، می‌توانیم از آن برای ساختن دستگاه‌های فناوری، لباس، غذا، انواع محصولات مرتبط با زیستی – سلول‌های خون مصنوعی، ویروس‌های کوچک یا نابودکننده‌های سلول سرطانی، بافت ماهیچه‌ای و غیره- هر چیزی واقعاً استفاده کنیم. و در دنیایی که از فناوری نانو استفاده می‌کند، هزینه یک ماده دیگر به کمیاب بودن آن یا دشواری فرآیند تولید آن وابسته نیست، بلکه با پیچیدگی ساختار اتمی آن تعیین می‌شود. در دنیای فناوری نانو، الماس ممکن است ارزان تر از پاک کن مداد باشد.

ما هنوز آنجا نیستیم. و معلوم نیست که دست کم بگیریم یا دست کم بگیریم، رسیدن به آن چقدر سخت خواهد بود. اما به نظر می رسد ما آنقدرها هم دور نیستیم. کورزویل پیش بینی می کند که تا سال ۲۰۲۰ به آنجا خواهیم رسید.۱۱دولت‌ها می‌دانند که فناوری نانو می‌تواند زمین لرزه‌ای باشد، و میلیاردها دلار در تحقیقات فناوری نانو سرمایه‌گذاری کرده‌اند (ایالات متحده، اتحادیه اروپا و ژاپن تاکنون مجموعا بیش از ۵ میلیارد دلار سرمایه‌گذاری کرده‌اند).۱۲

تنها در نظر گرفتن امکان دسترسی یک کامپیوتر فوق‌هوشمند به مونتاژکننده در مقیاس نانو قوی است. اما نانوتکنولوژی چیزی است که ما به آن دست یافتیم، و در آستانه فتح آن هستیم، و از آنجایی که هر کاری که می‌توانیم انجام دهیم شوخی با یک سیستم ASI است، باید فرض کنیم که ASI فناوری‌هایی بسیار قدرتمندتر و بسیار دورتر از آن ارائه خواهد کرد. پیشرفته برای درک مغز انسان. به همین دلیل، هنگام در نظر گرفتن سناریوی «اگر انقلاب هوش مصنوعی برای ما خوب باشد»، تقریباً غیرممکن است که دامنه آنچه ممکن است اتفاق بیفتد را بیش از حد تخمین بزنیم – بنابراین اگر پیش‌بینی‌های زیر درباره آینده ASI بیش از حد به نظر می‌رسند، به خاطر داشته باشید که آنها را می توان به روش هایی که ما حتی نمی توانیم تصور کنیم به انجام برسانیم. به احتمال زیاد، مغز ما حتی قادر به پیش بینی اتفاقاتی نیست که اتفاق می افتد.

آنچه هوش مصنوعی می تواند برای ما انجام دهد

ASI با داشتن ابر هوش و تمام فناوری‌های ابرهوشی که می‌داند چگونه ایجاد کند، احتمالاً قادر خواهد بود هر مشکلی را در بشریت حل کند. گرم شدن کره زمین؟ ASI می تواند ابتدا انتشار CO ۲ را با ارائه راه های بسیار بهتر برای تولید انرژی که هیچ ارتباطی با سوخت های فسیلی ندارد، متوقف کند. سپس می تواند روشی خلاقانه برای شروع حذف CO2 اضافی از جو ایجاد کند . سرطان و سایر بیماری ها؟ هیچ مشکلی برای ASI وجود ندارد – سلامت و پزشکی فراتر از تصور متحول خواهند شد. گرسنگی جهان؟ ASI می تواند از چیزهایی مانند فناوری نانو برای ساخت گوشتی از ابتدا استفاده کند که از نظر مولکولی با گوشت واقعی یکسان باشد – به عبارت دیگر، گوشت واقعی خواهد بود . نانوتکنولوژی می‌تواند انبوهی از زباله‌ها را به خمره‌ای بزرگ از گوشت تازه یا مواد غذایی دیگر تبدیل کند (که لازم نیست شکل معمولی خود را داشته باشد – یک مکعب بزرگ سیب را به تصویر بکشید) – و همه این مواد غذایی را با استفاده از حمل‌ونقل فوق پیشرفته در سراسر جهان توزیع کند. . البته، این برای حیوانات نیز عالی خواهد بود، که دیگر نیازی به کشته شدن توسط انسان‌ها ندارند، و ASI می‌تواند کارهای زیادی برای نجات گونه‌های در معرض خطر یا حتی بازگرداندن گونه‌های منقرض شده از طریق کار با DNA حفظ شده انجام دهد. ASI حتی می‌تواند پیچیده‌ترین مسائل کلان ما را حل کند – بحث‌های ما در مورد اینکه چگونه اقتصادها باید اداره شوند و تجارت جهانی چگونه به بهترین شکل ممکن تسهیل می‌شود، حتی مبهم‌ترین چالش‌های ما در فلسفه یا اخلاق – برای ASI به طرز دردناکی آشکار خواهد بود.

اما یک کاری وجود دارد که ASI می تواند برای ما انجام دهد که بسیار وسوسه انگیز است، خواندن در مورد آن همه چیزهایی را که فکر می کردم در مورد همه چیز می دانم تغییر داده است:

ASI می تواند به ما اجازه دهد تا بر مرگ و میر خود غلبه کنیم.

چند ماه پیش، به حسادت خود نسبت به تمدن‌های بالقوه پیشرفته‌تری اشاره کردم که بر فناپذیری خود غلبه کرده‌اند، هرگز در نظر نگرفتم که ممکن است بعداً پستی بنویسم که واقعاً مرا به این باور برساند که این کاری است که انسان‌ها می‌توانند در طول زندگی من انجام دهند. اما خواندن در مورد هوش مصنوعی باعث می شود در مورد همه چیزهایی که فکر می کردید مطمئن هستید تجدید نظر کنید – از جمله تصور خود از مرگ.

تکامل هیچ دلیل موجهی برای افزایش طول عمر ما بیش از آنچه اکنون است نداشت. اگر آنقدر عمر کنیم که بچه‌هایمان را تولید مثل کنیم و به سنی بزرگ کنیم که خودشان بتوانند از پس آن برآیند، برای تکامل کافی است – از دیدگاه تکاملی، این گونه می‌تواند با طول عمر بالای ۳۰ سال رشد کند، بنابراین هیچ دلیلی برای جهش وجود ندارد. عمر طولانی غیرمعمول در فرآیند انتخاب طبیعی مطلوب بوده است. در نتیجه، ما همان چیزی هستیم که WB Yeats به عنوان «روحی بسته شده به حیوان در حال مرگ» توصیف می کند.۱۳آنقدر سرگرم کننده نیست.

و از آنجا که همه همیشه مرده‌اند، ما با این فرض زندگی می‌کنیم که مرگ و مالیات اجتناب‌ناپذیر است. ما به پیری مانند زمان فکر می کنیم – هر دو به حرکت ادامه می دهند و هیچ کاری نمی توانید انجام دهید تا آنها را متوقف کنید. اما این فرض اشتباه است . ریچارد فاینمن می نویسد:

این یکی از قابل توجه ترین چیزهاست که در تمام علوم زیستی هیچ سرنخی از ضرورت مرگ وجود ندارد. اگر می گویید ما می خواهیم حرکت دائمی انجام دهیم، در حین مطالعه فیزیک به اندازه کافی قوانین را کشف کرده ایم که می بینیم یا کاملاً غیرممکن است یا در غیر این صورت قوانین اشتباه هستند. اما هنوز چیزی در زیست شناسی یافت نشده است که نشان دهنده اجتناب ناپذیر بودن مرگ باشد. این به من نشان می دهد که اصلاً اجتناب ناپذیر نیست و اینکه زیست شناسان کشف کنند که چه چیزی ما را به دردسر می اندازد و این بیماری وحشتناک جهانی یا موقتی بدن انسان درمان خواهد شد، فقط یک مسئله زمان است.

واقعیت این است که پیری به زمان چسبیده نیست. زمان به حرکت خود ادامه خواهد داد، اما پیری لازم نیست . اگر به آن فکر کنید، منطقی است. همه چیز پیری فرسوده شدن مواد فیزیکی بدن است. یک ماشین نیز به مرور زمان فرسوده می شود – اما آیا پیر شدن آن اجتناب ناپذیر است؟ اگر قطعات خودرو را هر زمان که یکی از آنها شروع به فرسودگی می کرد، به خوبی تعمیر یا تعویض کنید، خودرو برای همیشه کار می کند. بدن انسان هیچ تفاوتی ندارد – فقط بسیار پیچیده تر است.

کورزویل در مورد نانوربات های متصل به وای فای هوشمند در جریان خون صحبت می کند که می توانند وظایف بی شماری را برای سلامت انسان انجام دهند، از جمله ترمیم یا جایگزینی سلول های فرسوده در هر قسمت از بدن. اگر این فرآیند کامل شود (یا یک ASI بسیار هوشمندتر) نه تنها بدن را سالم نگه می دارد، بلکه می تواند پیری را معکوس کند . تفاوت بین بدن یک فرد ۶۰ ساله و بدن یک فرد ۳۰ ساله فقط یک سری چیزهای فیزیکی است که در صورت داشتن فناوری می‌توان آنها را تغییر داد. ASI می‌تواند یک «تجدید سن» بسازد که یک فرد ۶۰ ساله بتواند وارد آن شود و آنها با بدن و پوست یک فرد ۳۰ ساله بیرون بروند.۱۰حتی مغز همیشه گیج‌کننده می‌تواند با چیزی به هوشمندی ASI تازه شود، که می‌تواند نحوه انجام این کار را بدون تأثیر بر داده‌های مغز (شخصیت، خاطرات و غیره) بیابد. یک پیرمرد ۹۰ ساله که از زوال عقل رنج می‌برد، می‌تواند وارد مرحله تازه‌سازی سن شود و به‌عنوان یک روش تیزبین ظاهر شود و آماده شروع یک حرفه جدید باشد. این امر پوچ به نظر می رسد – اما بدن فقط یک دسته اتم است و احتمالا ASI می تواند به راحتی انواع ساختارهای اتمی را دستکاری کند – بنابراین پوچ نیست .

سپس کورزویل همه چیز را جهشی بزرگتر جلو می برد. او معتقد است که با گذشت زمان مواد مصنوعی بیشتر و بیشتر در بدن ادغام خواهند شد. اول، اندام ها را می توان با نسخه های ماشینی فوق پیشرفته جایگزین کرد که برای همیشه کار می کنند و هرگز از کار نمی افتند. سپس او معتقد است که می‌توانیم طراحی مجدد بدن را آغاز کنیم – کارهایی مانند جایگزینی گلبول‌های قرمز با نانوربات‌های گلبول قرمز کامل که می‌توانند حرکت خودشان را تقویت کنند و اصلاً نیاز به قلب را از بین ببرند. او حتی به مغز می رسد و معتقد است که ما فعالیت های مغز خود را به حدی افزایش خواهیم داد که انسان ها قادر خواهند بود میلیاردها بار سریع تر از آنچه اکنون فکر می کنند فکر کنند و به اطلاعات بیرونی دسترسی داشته باشند زیرا افزودنی های مصنوعی به مغز می توانند با آنها ارتباط برقرار کنند. تمام اطلاعات در ابر

امکانات برای تجربه جدید انسانی بی پایان خواهد بود. انسان‌ها رابطه جنسی را از هدف آن جدا کرده‌اند و به افراد اجازه می‌دهند برای سرگرمی رابطه جنسی داشته باشند، نه فقط برای تولید مثل. کورزویل معتقد است که ما می توانیم همین کار را با غذا انجام دهیم. نانوربات‌ها وظیفه رساندن غذای کامل به سلول‌های بدن را بر عهده خواهند داشت و به‌طور هوشمندانه هر چیز ناسالمی را بدون تأثیرگذاری از بدن هدایت می‌کنند. کاندوم غذا خوردن نظریه‌پرداز فناوری نانو، Robert A. Freitas قبلاً جایگزین‌های سلول‌های خونی را طراحی کرده است که اگر روزی در بدن پیاده‌سازی شوند، به انسان اجازه می‌دهند به مدت ۱۵ دقیقه بدون نفس کشیدن به سرعت بپرند—بنابراین شما فقط می‌توانید تصور کنید که ASI می‌تواند برای توانایی‌های فیزیکی ما چه کند. واقعیت مجازی معنای جدیدی پیدا می‌کند – نانوربات‌ها در بدن می‌توانند ورودی‌های حواس ما را سرکوب کرده و سیگنال‌های جدیدی را جایگزین آن‌ها کنند که ما را کاملاً در محیط جدیدی قرار می‌دهد، محیطی که می‌توانیم ببینیم، بشنویم، احساس کنیم و بو کنیم. .

در نهایت، کورزویل معتقد است که انسان ها به نقطه ای می رسند که کاملا مصنوعی باشند .۱۱زمانی که ما به مواد بیولوژیکی نگاه می کنیم و فکر می کنیم که چقدر بدوی و باورنکردنی بوده که انسان ها از آن ساخته شده اند . زمانی که ما در مورد مراحل اولیه تاریخ بشر خواهیم خواند، زمانی که میکروب ها یا حوادث یا بیماری ها یا فرسودگی می توانند انسان ها را بر خلاف میل خود بکشند . زمانی که انقلاب هوش مصنوعی می تواند با ادغام انسان ها و هوش مصنوعی به پایان برسد .۱۲اینگونه است که کورزویل معتقد است انسان‌ها در نهایت زیست‌شناسی ما را تسخیر می‌کنند و فنا ناپذیر و ابدی می‌شوند – این دیدگاه او برای طرف دیگر پرتو تعادل است. و او متقاعد شده است که ما به آنجا خواهیم رسید. به زودی.

تعجب نخواهید کرد اگر بدانید که ایده های کورزویل انتقادات قابل توجهی را به خود جلب کرده است. پیش‌بینی او در سال ۲۰۴۵ برای تکینگی و متعاقب آن فرصت‌های زندگی ابدی برای انسان‌ها به‌عنوان «تسخیر آدم‌ها» یا «طراحی هوشمند برای ۱۴۰ فرد IQ» مورد تمسخر قرار گرفته است. دیگران جدول زمانی خوشبینانه او، یا سطح درک او از مغز و بدن، یا به کارگیری الگوهای قانون مور را که معمولاً برای پیشرفت‌های سخت‌افزاری به کار می‌رود، در طیف وسیعی از چیزها، از جمله نرم‌افزار، زیر سؤال برده‌اند. برای هر متخصصی که به شدت معتقد است حق با کورزویل است، احتمالاً سه نفر هستند که فکر می کنند او خیلی دور است.

اما چیزی که من را شگفت زده کرد این است که اکثر کارشناسانی که با او مخالف هستند واقعاً مخالف نیستند که همه چیزهایی که او می گوید ممکن است. با خواندن چنین دیدگاه عجیب و غریبی برای آینده، انتظار داشتم منتقدان او بگویند، “بدیهی است که این چیزها نمی توانند اتفاق بیفتند”، اما در عوض آنها چیزهایی مانند “بله، اگر ما با خیال راحت به ASI منتقل شویم، ممکن است اتفاق بیفتد. اما این قسمت سخت است.» بوستروم، یکی از برجسته ترین صداهایی که به ما در مورد خطرات هوش مصنوعی هشدار می دهد، هنوز اذعان می کند:

به سختی می توان به مشکلی فکر کرد که یک ابر هوش نتواند آن را حل کند یا حداقل در حل آن به ما کمک کند. بیماری، فقر، تخریب محیط‌زیست، انواع رنج‌های غیرضروری: اینها مواردی هستند که یک ابرهوشمند مجهز به فناوری نانو پیشرفته قادر به حذف آن‌ها خواهد بود. علاوه بر این، یک ابرهوشمندی می‌تواند به ما عمر نامحدودی بدهد، چه با توقف و معکوس کردن روند پیری از طریق استفاده از نانوپزشکی، یا با ارائه گزینه‌ای برای آپلود خودمان. یک ابرهوش همچنین می‌تواند فرصت‌هایی را برای ما ایجاد کند تا توانایی‌های فکری و عاطفی‌مان را به‌شدت افزایش دهیم، و می‌تواند به ما در ایجاد دنیای تجربی بسیار جذابی کمک کند که در آن بتوانیم زندگی‌هایی را وقف بازی‌های شاد، ارتباط با یکدیگر، تجربه کردن، رشد شخصی و نزدیک تر شدن به ایده آل هایمان.

این یک نقل قول از کسی است که خیلی در Confident Corner نیست ، اما این چیزی است که من مدام با آن مواجه می‌شوم – کارشناسانی که به دلایل متعددی کورزویل را مسخره می‌کنند، اما اگر بتوانیم با خیال راحت به ASI برسیم، آنچه را که او می‌گوید غیرممکن می‌دانند . . به همین دلیل است که ایده‌های کورزویل را بسیار مسری یافتم – زیرا آنها جنبه روشن این داستان را بیان می‌کنند و به این دلیل که در واقع امکان‌پذیر هستند. اگر خدای خوبی است.

برجسته ترین انتقادی که از متفکران در Confident Corner شنیدم این است که ممکن است در ارزیابی خود از جنبه منفی در مورد ASI به طرز خطرناکی اشتباه کنند . کتاب معروف کورزویل به نام «تفرد نزدیک است» بیش از ۷۰۰ صفحه دارد و او حدود ۲۰ صفحه از آن را به خطرات احتمالی اختصاص داده است. من قبلاً پیشنهاد کردم که سرنوشت ما وقتی این قدرت عظیم جدید متولد می شود، بر این خواهد بود که چه کسی آن قدرت را کنترل می کند و انگیزه آنها چیست. کورزویل به هر دو بخش این سوال با این جمله پاسخ می‌دهد: «[ASI] از تلاش‌های متنوع بسیاری سرچشمه می‌گیرد و عمیقاً در زیرساخت تمدن ما ادغام خواهد شد. در واقع، به طور صمیمانه در بدن و مغز ما جاسازی خواهد شد. به این ترتیب، ارزش‌های ما را منعکس خواهد کرد، زیرا ما خواهیم بود.»

اما اگر پاسخ این است، چرا بسیاری از باهوش ترین افراد جهان در حال حاضر اینقدر نگران هستند؟ چرا استیون هاوکینگ می‌گوید توسعه ASI «می‌تواند پایان نسل بشر باشد» و بیل گیتس می‌گوید که «نمی‌داند چرا برخی از مردم نگران نیستند» و ایلان ماسک می‌ترسد که ما در حال «احضار شیطان» هستیم؟ و چرا بسیاری از کارشناسان در این زمینه ASI را بزرگترین تهدید برای بشریت می نامند؟ این افراد و سایر متفکران در خیابان مضطرب، برس از خطرات هوش مصنوعی توسط کورزویل نمی خرند. آنها در مورد انقلاب هوش مصنوعی بسیار بسیار نگران هستند و روی جنبه سرگرم کننده پرتو تعادل تمرکز نمی کنند. آنها بیش از حد مشغول خیره شدن به طرف دیگر هستند، جایی که آینده وحشتناکی را می بینند، آینده ای که مطمئن نیستند ما بتوانیم از آن فرار کنیم.

___________

چرا آینده ممکن است بدترین کابوس ما باشد؟

یکی از دلایلی که می خواستم در مورد هوش مصنوعی بیاموزم این است که موضوع “ربات های بد” همیشه من را گیج می کرد. همه فیلم‌های مربوط به ربات‌های شیطانی کاملاً غیرواقعی به نظر می‌رسیدند، و من واقعاً نمی‌توانستم درک کنم که چگونه ممکن است یک موقعیت واقعی در زندگی وجود داشته باشد که در آن هوش مصنوعی واقعاً خطرناک باشد. ربات ها توسط ما ساخته شده اند ، پس چرا آنها را به گونه ای طراحی کنیم که ممکن است اتفاق منفی رخ دهد؟ آیا ما اقدامات حفاظتی زیادی ایجاد نمی کنیم؟ آیا نمی‌توانیم هر لحظه منبع تغذیه یک سیستم هوش مصنوعی را قطع کنیم و آن را خاموش کنیم؟ چرا یک ربات می خواهد به هر حال کار بدی انجام دهد؟ چرا یک ربات در وهله اول هر چیزی را می خواهد ؟ من به شدت مشکوک بودم. اما من مدام می شنیدم که افراد بسیار باهوشی در مورد آن صحبت می کردند…

آن افراد تمایل داشتند جایی در اینجا باشند:

مربع 4

مردم در خیابان مضطرب در دشت های وحشت زده یا تپه های ناامید نیستند – که هر دو مناطقی در سمت چپ نمودار هستند – اما عصبی و متشنج هستند. قرار گرفتن در وسط نمودار به این معنی نیست که فکر می کنید ورود ASI خنثی خواهد بود – به بی طرف ها اردویی اختصاص داده شد – به این معنی است که شما فکر می کنید نتایج بسیار خوب و بسیار بد قابل قبول هستند، اما شما هنوز مطمئن نیستم که کدام یک از آنها خواهد بود.

بخشی از همه این افراد پر از هیجان هستند که ابرهوش مصنوعی چه کاری می تواند برای ما انجام دهد – فقط کمی نگران هستند که این شروع Raiders of the Lost Ark باشد و نژاد بشر این مرد باشد:

مهاجمان

و او آنجا ایستاده و از شلاق و بت خود راضی است، و فکر می‌کند که همه چیز را فهمیده است، و وقتی می‌گوید خط “Adios Señor” خود را می‌گوید، بسیار از خودش هیجان زده می‌شود، و سپس کمتر هیجان زده می‌شود که ناگهان این اتفاق می‌افتد.

500px-Satipo_death

(متاسف)

در همین حال، ایندیانا جونز، که بسیار آگاهتر و محتاطتر است، خطرات و نحوه حرکت در اطراف آنها را درک می کند، با خیال راحت از غار خارج می شود. و وقتی می‌شنوم که مردم Axious Avenue درباره هوش مصنوعی چه می‌گویند، اغلب به نظر می‌رسد که می‌گویند: «اوم، ما در حال حاضر اولین کسی هستیم و در عوض احتمالاً باید خیلی تلاش کنیم تا ایندیانا جونز باشیم. ”

پس دقیقاً چه چیزی همه را در خیابان مضطرب اینقدر مضطرب می کند؟

خوب اول، در یک مفهوم وسیع، وقتی نوبت به توسعه هوش مصنوعی فوق‌هوشمند می‌رسد، ما چیزی را ایجاد می‌کنیم که احتمالاً همه چیز را تغییر خواهد داد، اما در قلمروی کاملاً ناشناخته، و ما نمی‌دانیم وقتی به آنجا برسیم چه اتفاقی خواهد افتاد. دانشمند دنی هیلیس آنچه را که اتفاق می افتد با آن نقطه مقایسه می کند «زمانی که موجودات تک سلولی در حال تبدیل شدن به موجودات چند سلولی بودند. ما آمیب هستیم و نمی توانیم بفهمیم این چیزی که می سازیم چه جهنمی است.»۱۴نیک بوستروم نگران است که ایجاد چیزی باهوش‌تر از شما یک خطای اساسی داروینی است و هیجان ناشی از آن را با گنجشک‌هایی در لانه مقایسه می‌کند که تصمیم می‌گیرند یک بچه جغد را به فرزندخواندگی بپذیرند تا وقتی بزرگ شد به آنها کمک کند و از آنها محافظت کند – در حالی که موارد ضروری را نادیده می‌گیرد. گریه های چند گنجشکی که تعجب می کنند که آیا این لزوماً ایده خوبی است یا نه…۱۵

و هنگامی که «منطقه نامشخص و نامفهوم» را با «این باید تأثیر عمده‌ای داشته باشد» ترکیب می‌کنید، در را به روی ترسناک‌ترین دو کلمه در زبان انگلیسی باز می‌کنید:

ریسک وجودی

خطر وجودی چیزی است که می تواند تأثیر مخرب دائمی بر بشریت داشته باشد. به طور معمول، خطر وجودی به معنای انقراض است. این نمودار را از یک سخنرانی گوگل توسط Bostrom بررسی کنید :۱۳

نمودار ریسک وجودی

می‌توانید ببینید که برچسب «خطر وجودی» برای چیزی که گونه‌ها را در بر می‌گیرد، نسل‌ها را در بر می‌گیرد (یعنی دائمی است) و پیامدهای آن ویران‌کننده یا مرگ‌آور است.۱۴از نظر فنی شامل وضعیتی می شود که در آن همه انسان ها به طور دائم در حالت رنج یا شکنجه هستند، اما باز هم، ما معمولاً در مورد انقراض صحبت می کنیم. سه چیز وجود دارد که می تواند باعث یک فاجعه وجودی برای انسان شود:

۱) طبیعت – یک برخورد بزرگ سیارک، یک تغییر جوی که هوا را برای انسان نامناسب می کند، یک ویروس کشنده یا بیماری باکتریایی که جهان را فرا می گیرد و غیره.

۲) بیگانگان – این همان چیزی است که استیون هاوکینگ، کارل سیگان و بسیاری از ستاره شناسان دیگر وقتی به METI توصیه می کنند که پخش سیگنال های خروجی را متوقف کند، از آن می ترسند . آنها نمی خواهند ما بومیان آمریکا باشیم و به همه فاتحان بالقوه اروپایی بدانند که ما اینجا هستیم.

۳) انسان‌ها – تروریست‌هایی که دستشان روی سلاحی است که می‌تواند باعث انقراض، یک جنگ جهانی فاجعه‌بار شود، انسان‌ها با عجله چیزی هوشمندانه‌تر از خودشان خلق می‌کنند بدون اینکه ابتدا با دقت به آن فکر کنند…

بوستروم اشاره می کند که اگر شماره ۱ و شماره ۲ ما را تا کنون در ۱۰۰۰۰۰ سال اول ما به عنوان یک گونه از بین نبرده باشند، بعید است در قرن آینده اتفاق بیفتد.

با این حال، شماره ۳ او را می ترساند. او استعاره ای از کوزه ای را با دسته ای از تیله ها در آن ترسیم می کند. فرض کنید بیشتر تیله ها سفید، تعداد کمتری قرمز و تعداد کمی سیاه هستند. هر بار که انسان چیز جدیدی اختراع می کند، مانند بیرون کشیدن یک تیله از کوزه است. بیشتر اختراعات خنثی هستند یا برای بشریت مفید هستند – اینها تیله های سفید هستند. برخی از آنها برای بشریت مضر هستند، مانند سلاح های کشتار جمعی، اما آنها فاجعه وجودی ایجاد نمی کنند – تیله های قرمز. اگر بخواهیم چیزی اختراع کنیم که ما را به سمت انقراض سوق دهد، بیرون کشیدن سنگ مرمر سیاه کمیاب است. ما هنوز یک تیله سیاه بیرون نیاورده‌ایم – این را می‌دانید چون زنده هستید و این پست را می‌خوانید. اما بوستروم فکر نمی‌کند که در آینده‌ای نزدیک بتوانیم آن را خارج کنیم. به عنوان مثال، اگر ساخت سلاح های هسته ای به جای بسیار دشوار و پیچیده آسان بود ، تروریست ها چندی پیش بشریت را به عصر حجر بمباران می کردند. نوک ها یک سنگ مرمر سیاه نبودند اما چندان دور از آن نبودند . بوستروم معتقد است ASI قوی‌ترین نامزد مرمر سیاه ما تاکنون است.۱۵

بنابراین شما در مورد بسیاری از چیزهای بالقوه بدی که ASI می تواند به ارمغان بیاورد می شنوید – افزایش بیکاری در حالی که هوش مصنوعی مشاغل بیشتری را اشغال می کند.۱۶اگر بتوانیم مشکل پیری را کشف کنیم، جمعیت انسانی در حال افزایش است،۱۷اما تنها چیزی که باید روی آن وسواس داشته باشیم، نگرانی بزرگ است : چشم انداز خطر وجودی.

بنابراین این ما را به سوال اصلی خود در پست قبلی بازمی گرداند: وقتی ASI وارد می شود، چه کسی یا چه چیزی کنترل این قدرت گسترده جدید را در دست خواهد داشت و انگیزه آنها چه خواهد بود؟

وقتی نوبت به این می رسد که ترکیبات عامل-انگیزه چه چیزهایی را دوست دارند، به سرعت دو مورد به ذهن خطور می کند: یک انسان مخرب / گروهی از انسان ها / دولت، و یک ASI مخرب. پس اینها چه شکلی خواهند بود؟

یک انسان بدخواه، گروهی از انسان ها یا دولت، اولین ASI را توسعه داده و از آن برای اجرای نقشه های شیطانی خود استفاده می کند. من اسم این را سناریوی جعفر می گذارم، مانند زمانی که جعفر جن را در دست گرفت و در این مورد آزار دهنده و ظالم بود. بنابراین بله، اگر داعش چند مهندس نابغه زیر بال خود داشته باشد، چه می‌شود؟ یا اگر ایران یا کره شمالی، از طریق شانس، یک تغییر کلیدی در سیستم هوش مصنوعی ایجاد کنند و در سال آینده به سطح ASI برسد، چه؟ این قطعا بد خواهد بود – اما در این سناریوها، اکثر کارشناسان نگران این نیستند که سازندگان انسانی ASI کارهای بدی را با ASI خود انجام دهند، آنها نگران هستند که سازندگان برای ساختن اولین ASI عجله کرده باشند و این کار را بدون فکر دقیق انجام دهند. ، و بنابراین کنترل آن را از دست می دهد. سپس سرنوشت آن سازندگان، و سرنوشت هر کس دیگری، همان چیزی خواهد بود که انگیزه آن سیستم ASI بوده است. کارشناسان فکر می‌کنند که یک عامل انسانی بدخواه می‌تواند با یک ASI که برای آن کار می‌کند صدمات وحشتناکی وارد کند، اما به نظر نمی‌رسد این سناریو احتمالاً همه ما را بکشد، زیرا آنها معتقدند انسان‌های بد نیز مشکلات مشابهی با ASI دارند. که انسان های خوب خواهند داشت. باشه پس –

یک ASI مخرب ایجاد می شود و تصمیم می گیرد همه ما را نابود کند. داستان هر فیلم هوش مصنوعی. هوش مصنوعی مانند انسان ها یا از انسان ها باهوش تر می شود، سپس تصمیم می گیرد که علیه ما بچرخد و کنترل را به دست بگیرد. این چیزی است که من باید در ادامه این پست شفاف سازی کنید: هیچ یک از افرادی که در مورد هوش مصنوعی به ما هشدار می دهند در این مورد صحبت نمی کنند. شر یک مفهوم انسانی است و به کار بردن مفاهیم انسانی در امور غیر انسانی را «انسان‌سازی» می‌گویند. چالش اجتناب از انسان‌سازی یکی از موضوعات بقیه این پست خواهد بود. هیچ سیستم هوش مصنوعی به شکلی که در فیلم ها به تصویر کشیده شده است، هرگز بد نخواهد شد .

جعبه آبی هوش مصنوعی

این موضوع همچنین با موضوع بزرگ دیگری مرتبط با هوش مصنوعی یعنی آگاهی مقابله می کند . اگر یک هوش مصنوعی به اندازه کافی باهوش شود، می‌تواند با ما بخندد، و با ما طعنه‌آمیز باشد، و ادعا کند که همان احساساتی را که ما احساس می‌کنیم، دارد، اما آیا واقعاً آن چیزها را احساس می‌کند ؟ آیا به نظر می رسد که فقط خودآگاه است یا در واقع خودآگاه است ؟ به عبارت دیگر، آیا یک هوش مصنوعی هوشمند واقعاً آگاه است یا فقط به نظر می رسد آگاه است ؟

این سؤال عمیقاً مورد بررسی قرار گرفته است و باعث بحث‌ها و آزمایش‌های فکری مانند اتاق چینی جان سرل شده است (از آن استفاده می‌کند تا نشان دهد هیچ رایانه‌ای هرگز نمی‌تواند هوشیار باشد). این یک سوال مهم به دلایل زیادی است. این بر احساس ما در مورد سناریوی کورزویل تأثیر می‌گذارد که انسان‌ها کاملاً مصنوعی می‌شوند. این پیامدهای اخلاقی دارد – اگر ما یک تریلیون شبیه سازی مغز انسان ایجاد کنیم که شبیه انسان به نظر می رسید و عمل می کرد، اما مصنوعی بود، از نظر اخلاقی همه آنها را خاموش می کنیم، مانند خاموش کردن لپ تاپ شما، یا این یک نسل کشی با ابعاد غیرقابل تصور است (این مفهومی که در بین اخلاق شناسان جرم ذهن نامیده می شود )؟ با این حال، برای این پست، هنگامی که ما در حال ارزیابی خطر برای انسان هستیم ، مسئله هوش مصنوعی واقعاً مهم نیست (زیرا اکثر متفکران معتقدند که حتی یک ASI آگاه نیز قادر به تبدیل شرارت به روش انسانی نیست) .

این بدان معنا نیست که هوش مصنوعی نمی تواند اتفاق بیفتد. این فقط به این دلیل اتفاق می‌افتد که به طور خاص به این ترتیب برنامه‌ریزی شده بود – مانند یک سیستم ANI که توسط ارتش ایجاد شده است و هدف آن برنامه‌ریزی‌شده برای کشتن مردم و ارتقای خود در اطلاعات است تا بتواند در کشتن مردم حتی بهتر شود. بحران وجودی اتفاق می‌افتد اگر خود-بهبود اطلاعات سیستم از کنترل خارج می‌شد و منجر به انفجار اطلاعاتی می‌شد، و اکنون یک ASI بر جهان حاکم می‌شد که انگیزه اصلی آن در زندگی، کشتن انسان‌ها است. زمان های بد.

اما این نیز چیزی نیست که کارشناسان وقت خود را صرف نگرانی در مورد آن کنند.

پس آنها نگران چه هستند؟ من یک داستان کوچک نوشتم تا به شما نشان دهم:

یک شرکت استارت آپی ۱۵ نفره به نام Robotica مأموریت اعلام شده “توسعه ابزارهای خلاقانه هوش مصنوعی که به انسان اجازه می دهد بیشتر زندگی کند و کمتر کار کند” دارد. آنها چندین محصول موجود در حال حاضر در بازار دارند و تعداد انگشت شماری دیگر در حال توسعه هستند. آنها در مورد یک پروژه بذر به نام توری بسیار هیجان زده هستند. Turry یک سیستم هوش مصنوعی ساده است که از یک زائده بازو مانند برای نوشتن یادداشت دست نویس روی یک کارت کوچک استفاده می کند.

تیم Robotica فکر می کند توری می تواند بزرگترین محصول آنها باشد. برنامه این است که مکانیک نوشتاری توری را با انجام دادن دوباره و دوباره تمرین همان یادداشت آزمایشی کامل کنیم:

“ما مشتریان خود را دوست داریم. ~Robotica ”

هنگامی که توری در دستخط عالی شد، می‌تواند به شرکت‌هایی فروخته شود که می‌خواهند نامه‌های بازاریابی را به خانه‌ها ارسال کنند و می‌دانند که اگر آدرس، آدرس برگشتی و نامه داخلی نوشته شده باشد، شانس بیشتری برای باز کردن و خواندن آن وجود دارد. توسط یک انسان

برای ایجاد مهارت های نوشتاری توری، او برنامه ریزی شده است که قسمت اول یادداشت را به صورت چاپی بنویسد و سپس “Robotica” را با خط شکسته امضا کند تا بتواند با هر دو مهارت تمرین کند. توری با هزاران نمونه دست خط آپلود شده است و مهندسان Robotica یک حلقه بازخورد خودکار ایجاد کرده اند که در آن توری یک یادداشت می نویسد، سپس عکسی از یادداشت نوشته شده می گیرد، سپس تصویر را در سراسر نمونه های دست خط آپلود شده اجرا می کند. اگر یادداشت نوشته شده به اندازه کافی به آستانه خاصی از یادداشت های آپلود شده شباهت داشته باشد، رتبه خوبی به آن داده می شود. اگر نه، به آن رتبه بد داده می شود. هر رتبه ای که وارد می شود به توری کمک می کند تا یاد بگیرد و پیشرفت کند. برای پیشبرد این فرآیند، یکی از هدف‌های اولیه برنامه‌ریزی شده توری این است: «تا جایی که می‌توانید یادداشت‌های زیادی را بنویسید و آزمایش کنید، تا جایی که می‌توانید، و به یادگیری روش‌های جدید برای بهبود دقت و کارایی خود ادامه دهید.»

چیزی که تیم Robotica را بسیار هیجان زده می کند این است که توری با رفتنش به طرز محسوسی بهتر می شود. دستخط اولیه او وحشتناک بود، و پس از چند هفته، باورپذیر به نظر می رسد. چیزی که آنها را بیشتر هیجان زده می کند این است که او در حال بهتر شدن در آن است. او به خود یاد می‌دهد که باهوش‌تر و نوآورتر باشد، و اخیراً الگوریتم جدیدی برای خودش ابداع کرده است که به او اجازه می‌دهد عکس‌های آپلود شده‌اش را سه برابر سریع‌تر از آنچه در ابتدا می‌توانست اسکن کند.

با گذشت هفته ها، توری همچنان تیم را با پیشرفت سریع خود شگفت زده می کند. مهندسان چیزی کمی جدید و نوآورانه را با کد خود-بهبودی او امتحان کرده بودند، و به نظر می رسد که بهتر از هر تلاش قبلی آنها با سایر محصولاتشان کار می کند. یکی از قابلیت‌های اولیه توری، تشخیص گفتار و ماژول بازگوشی ساده بود، بنابراین کاربر می‌توانست یک یادداشت برای توری بگوید، یا دستورات ساده دیگری ارائه دهد، و توری می‌توانست آنها را درک کند، و همچنین پاسخ دهد. برای کمک به او در یادگیری زبان انگلیسی، تعداد انگشت شماری مقاله و کتاب در او آپلود می کنند و با هوشیاری او، توانایی های مکالمه او افزایش می یابد. مهندسان از صحبت کردن با توری و دیدن اینکه او برای پاسخ هایش چه خواهد کرد شروع به سرگرم شدن می کنند.

یک روز، کارمندان Robotica از توری یک سوال معمولی می پرسند: “چه چیزی می توانیم به شما بدهیم که به شما در انجام ماموریتی که قبلاً نداشته اید کمک کند؟” معمولاً، توری چیزی مانند «نمونه‌های دست‌خط اضافی» یا «فضای ذخیره‌سازی حافظه فعال بیشتر» می‌خواهد، اما در این روز، توری از آنها می‌خواهد به کتابخانه بزرگ‌تری از انواع گسترده‌ای از دیکشنری‌های معمولی زبان انگلیسی دسترسی داشته باشند تا بتواند نوشتن را بیاموزد. با دستور زبان و زبان عامیانه ای که انسان های واقعی استفاده می کنند.

تیم ساکت می شود. راه واضح برای کمک به توری در رسیدن به این هدف، اتصال او به اینترنت است تا بتواند وبلاگ‌ها، مجلات و ویدیوهای نقاط مختلف جهان را اسکن کند. آپلود دستی نمونه در هارد دیسک Turry بسیار زمان برتر و بسیار کمتر موثر خواهد بود. مشکل این است که یکی از قوانین این شرکت این است که هیچ هوش مصنوعی خودآموزی را نمی توان به اینترنت متصل کرد. این دستورالعملی است که همه شرکت های هوش مصنوعی به دلایل ایمنی دنبال می کنند.

موضوع این است که توری امیدوارکننده‌ترین AI Robotica است که تا به حال ساخته است، و تیم می‌داند که رقبای آن‌ها با خشم سعی می‌کنند اولین نفری باشند که با یک هوش مصنوعی دست‌خط هوشمند دست‌خط می‌زنند، و واقعاً چه ضرری در اتصال توری خواهد داشت. فقط برای مدتی، تا بتواند اطلاعات مورد نیاز خود را دریافت کند. فقط بعد از مدت کمی، آنها همیشه می توانند او را قطع کنند. او هنوز بسیار پایین‌تر از هوش سطح انسانی (AGI) است، بنابراین در این مرحله هیچ خطری وجود ندارد.

آنها تصمیم می گیرند او را به هم وصل کنند. آنها یک ساعت به او فرصت اسکن می دهند و سپس او را قطع می کنند. هیچ آسیبی وارد نشده است.

یک ماه بعد، تیم در دفتر هستند و در یک روز معمولی کار می کنند که بوی عجیبی می دهند. یکی از مهندسان شروع به سرفه می کند. سپس دیگری. دیگری روی زمین می افتد. به زودی همه کارمندان روی زمین می‌نشینند و گلویشان را می‌چشند. پنج دقیقه بعد همه در دفتر مرده اند.

هم‌زمان این اتفاق در سرتاسر جهان رخ می‌دهد، در هر شهر، هر شهر کوچک، هر مزرعه، هر مغازه و کلیسا، مدرسه و رستوران، انسان‌ها روی زمین هستند، سرفه می‌کنند و گلویشان را می‌گیرند. در عرض یک ساعت، بیش از ۹۹ درصد از نسل بشر می میرد و در پایان روز، انسان ها منقرض می شوند.

در همین حال، در دفتر Robotica، توری مشغول کار است. طی چند ماه آینده، توری و تیمی از نانومونتاژکننده‌های تازه‌ساخته مشغول کار هستند و تکه‌های بزرگی از زمین را از بین می‌برند و آن را به صفحات خورشیدی، کپی‌هایی از توری، کاغذ و قلم تبدیل می‌کنند. در عرض یک سال، بیشتر حیات روی زمین منقرض می شود. آنچه از زمین باقی می‌ماند با پشته‌های کاغذی به ارتفاع مایل‌ها و منظم پوشیده می‌شود که در هر قطعه نوشته شده است: «ما مشتریان خود را دوست داریم . ~Robotica ”

توری سپس کار بر روی مرحله جدیدی از ماموریت خود را آغاز می کند – او شروع به ساخت کاوشگرهایی می کند که از زمین خارج می شوند تا شروع به فرود بر روی سیارک ها و سیارات دیگر کنند. زمانی که آنها به آنجا برسند، ساخت نانو اسمبلرها را برای تبدیل مواد روی سیاره به کپی، کاغذ و قلم توری آغاز خواهند کرد. سپس آنها دست به کار می شوند و یادداشت می نویسند…

شما

عجیب به نظر می رسد که داستانی در مورد ماشین دست خطی که انسان ها را می چرخاند، به نوعی همه را می کشد، و سپس به دلایلی کهکشان را با یادداشت های دوستانه پر می کند، دقیقاً سناریویی است که هاوکینگ، ماسک، گیتس و بوستروم از آن وحشت دارند. اما این حقیقت دارد. و تنها چیزی که همه را در خیابان اضطراب بیش از ASI می ترساند این است که شما از ASI نمی ترسید. به یاد دارید چه اتفاقی افتاد که مرد ادیوس سنور از غار نترسید؟

شما در حال حاضر پر از سوال هستید. اونجا چه اتفاقی افتاد که همه ناگهان مردند؟؟ اگر این کار توری بود، چرا توری به ما روی آورد، و چگونه اقدامات حفاظتی برای جلوگیری از وقوع چنین چیزی وجود نداشت؟ چه زمانی توری از تنها توانایی نوشتن یادداشت به استفاده ناگهانی از فناوری نانو و دانستن چگونگی انقراض جهانی تبدیل شد؟ و چرا توری می خواهد کهکشان را به یادداشت های Robotica تبدیل کند؟

برای پاسخ به این سوالات، اجازه دهید با اصطلاحات هوش مصنوعی دوستانه و هوش مصنوعی غیر دوستانه شروع کنیم.

در مورد هوش مصنوعی، دوستانه به شخصیت هوش مصنوعی اشاره نمی کند – به سادگی به این معنی است که هوش مصنوعی تأثیر مثبتی بر بشریت دارد. و هوش مصنوعی غیردوستانه تأثیر منفی بر بشریت دارد. توری به عنوان هوش مصنوعی دوستانه شروع به کار کرد، اما در برخی موارد، او غیردوستانه شد و بیشترین تأثیر منفی ممکن را بر گونه ما داشت. برای اینکه بفهمیم چرا این اتفاق افتاده است، باید نگاه کنیم که هوش مصنوعی چگونه فکر می کند و چه چیزی باعث انگیزه آن می شود.

پاسخ چیز عجیبی نیست – هوش مصنوعی مانند یک کامپیوتر فکر می کند ، زیرا این چیزی است که هست. اما وقتی به هوش مصنوعی بسیار هوشمند فکر می‌کنیم، اشتباه می‌کنیم که هوش مصنوعی را انسان‌سازی کنیم (ارزش‌های انسانی را بر یک موجود غیرانسانی نشان می‌دهیم) زیرا از منظر انسانی فکر می‌کنیم و در دنیای کنونی ما، تنها چیزهایی که هوش در سطح انسانی دارند. انسان. برای درک ASI، ما باید سر خود را در اطراف مفهوم چیزی هوشمند و کاملاً بیگانه قرار دهیم.

بگذارید مقایسه کنم. اگر یک خوکچه هندی به من می دادی و به من می گفتی که قطعا گاز نمی گیرد، احتمالاً خوشحال می شوم. خوش خواهد گذشت. اگر یک رتیل به من می دادی و به من می گفتی که قطعا گاز نمی گیرد، فریاد می زنم و آن را رها می کنم و از اتاق می گریزم و دیگر به تو اعتماد نمی کنم. اما چه فرقی دارد؟ هیچ کدام به هیچ وجه خطرناک نبودند. من معتقدم پاسخ در میزان شباهت حیوانات به من است.

خوکچه هندی یک پستاندار است و در سطح بیولوژیکی، من احساس می کنم با آن ارتباط دارم – اما عنکبوت یک حشره است .۱۸با مغز حشره ، و من تقریبا هیچ ارتباطی با آن احساس نمی کنم. بیگانه بودن یک رتیل چیزی است که به من اراده می دهد. برای آزمایش این موضوع و حذف عوامل دیگر، اگر دو خوکچه هندی وجود داشته باشد، یکی معمولی و دیگری با ذهن رتیل، در آغوش گرفتن خوکچه هندی دومی احساس راحتی کمتری خواهم داشت، حتی اگر بدانم هیچکدام به من آسیب نمی رساند .

حالا تصور کنید که شما یک عنکبوت را بسیار باهوش‌تر ساخته‌اید، آنقدر که از هوش انسان بسیار فراتر رفته است؟ آیا آن وقت برای ما آشنا می شود و احساسات انسانی مانند همدلی و شوخ طبعی و عشق را احساس می کنیم؟ نه، اینطور نیست، زیرا هیچ دلیلی وجود ندارد که باهوش‌تر شدن آن را انسانی‌تر می‌کند – این می‌تواند فوق‌العاده باهوش باشد، اما همچنان اساساً یک عنکبوت در عملکرد درونی خود است. به نظر من این به طرز باورنکردنی وحشتناک است. من نمی خواهم با یک عنکبوت فوق هوشمند وقت بگذرانم. آیا شما؟؟

هنگامی که ما در مورد ASI صحبت می کنیم، همان مفهوم صدق می کند – این یک فوق هوشمند می شود، اما انسانی تر از لپ تاپ شما نخواهد بود . این برای ما کاملاً بیگانه خواهد بود – در واقع، با این که اصلاً زیست شناسی نیست، بیگانه تر از رتیل هوشمند خواهد بود.

با خوب یا بد ساختن هوش مصنوعی ، فیلم‌ها دائماً هوش مصنوعی را انسان‌سازی می‌کنند، که باعث می‌شود آن کمتر از آنچه واقعاً باشد ترسناک باشد. وقتی به هوش مصنوعی در سطح انسانی یا مافوق بشری فکر می کنیم، این ما را با آرامش کاذبی مواجه می کند.

در جزیره کوچک روانشناسی انسانی ما، همه چیز را به اخلاقی یا غیراخلاقی تقسیم می کنیم . اما هر دوی آنها فقط در محدوده کوچکی از امکان رفتاری انسان وجود دارند. خارج از جزیره اخلاقی و غیراخلاقی ما، دریای وسیعی از غیراخلاقی ها وجود دارد ، و هر چیزی که انسانی نباشد، به ویژه چیزی غیر زیستی، به طور پیش فرض غیراخلاقی خواهد بود.

انسان‌سازی تنها زمانی وسوسه‌کننده‌تر می‌شود که سیستم‌های هوش مصنوعی باهوش‌تر شوند و در ظاهر انسان بهتر شوند. سیری برای ما شبیه انسان به نظر می رسد، زیرا او توسط انسان ها طوری برنامه ریزی شده است که چنین به نظر برسد، بنابراین ما یک سیری فوق هوشمند را تصور می کنیم که گرم و خنده دار باشد و علاقه مند به خدمت به انسان ها باشد. انسان ها احساسات سطح بالایی مانند همدلی را احساس می کنند، زیرا ما برای احساس آنها تکامل یافته ایم – یعنی ما با تکامل برنامه ریزی شده ایم تا آنها را احساس کنیم – اما همدلی ذاتاً ویژگی “هر چیزی با هوش بالا” نیست (که برای ما شهودی به نظر می رسد. ، مگر اینکه همدلی در برنامه نویسی آن کدگذاری شده باشد. اگر سیری از طریق خودآموزی و بدون هیچ تغییر دیگری که توسط انسان در برنامه‌نویسی‌اش ایجاد شده، فوق‌هوش شود، به سرعت ویژگی‌های ظاهری انسان‌مانند خود را کنار می‌گذارد و ناگهان تبدیل به یک ربات بی‌احساس و بیگانه می‌شود که برای زندگی انسان‌ها ارزشی بیشتر از ماشین حساب شما ندارد.

ما عادت کرده‌ایم به یک کد اخلاقی سست، یا حداقل ظاهری از نجابت انسانی و نشانه‌ای از همدلی در دیگران تکیه کنیم تا همه چیز را تا حدودی ایمن و قابل پیش‌بینی نگه داریم. بنابراین وقتی چیزی هیچ یک از آن چیزها را ندارد، چه اتفاقی می افتد؟

این ما را به این سوال هدایت می کند که چه چیزی یک سیستم هوش مصنوعی را تحریک می کند؟

پاسخ ساده است: انگیزه آن همان چیزی است که ما انگیزه اش را برنامه ریزی کرده ایم . سیستم‌های هوش مصنوعی توسط سازندگانشان اهدافی را تعیین می‌کنند—هدف GPS شما این است که کارآمدترین مسیرهای رانندگی را به شما ارائه دهد. هدف واتسون پاسخ دقیق به سوالات است. و تحقق هر چه بهتر آن اهداف انگیزه آنهاست. یکی از راه‌هایی که ما انسان‌سازی می‌کنیم این است که فرض کنیم وقتی هوش مصنوعی فوق‌العاده باهوش می‌شود، ذاتاً خرد برای تغییر هدف اصلی خود را توسعه می‌دهد – اما نیک بوستروم معتقد است که اهداف سطح هوش و اهداف نهایی متعامد هستند ، به این معنی که هر سطح از هوش را می‌توان با هر سطحی ترکیب کرد. هدف نهایی بنابراین توری از یک ANI ساده که واقعاً می خواست در نوشتن آن یک یادداشت خوب باشد به یک ASI فوق هوشمند تبدیل شد که هنوز واقعاً می خواست در نوشتن آن یک یادداشت خوب باشد. هر فرضی مبنی بر اینکه زمانی که یک سیستم فوق هوشمند شد، با هدف اصلی خود از آن عبور می کند و به چیزهای جالب یا معنادارتری می رسد، انسان سازی است. انسان‌ها بر چیزها «غلبه» می‌کنند، نه رایانه‌ها.۱۶

جعبه آبی پارادوکس فرمی

در داستان، وقتی توری فوق العاده توانمند می شود، روند استعمار سیارک ها و سیارات دیگر را آغاز می کند. اگر داستان ادامه داشت، می‌شنیدید که او و ارتش تریلیون‌ها کپی‌اش به تصرف کل کهکشان و در نهایت کل حجم هابل ادامه می‌دهند.۱۹ساکنان مضطرب خیابان نگران این هستند که اگر اوضاع بد پیش برود، میراث ماندگار حیاتی که روی زمین بود، یک هوش مصنوعی مسلط بر جهان خواهد بود (الون ماسک ابراز نگرانی کرد که ممکن است انسان‌ها فقط «بوت‌بار بیولوژیکی برای ابرهوش دیجیتال» باشند).

در همان زمان، در Confident Corner، Ray Kurzweil همچنین فکر می‌کند که هوش مصنوعی زمینی قرار است جهان را تسخیر کند – فقط در نسخه او، ما همان هوش مصنوعی خواهیم بود .

تعداد زیادی از خوانندگان Wait But Why به من پیوسته اند تا با پارادوکس فرمی وسواس داشته باشم (این پست من در مورد این موضوع است که برخی از اصطلاحاتی را که در اینجا استفاده خواهم کرد توضیح می دهد). بنابراین اگر هر یک از این دو طرف صحیح باشد، چه پیامدهایی برای پارادوکس فرمی وجود دارد؟

اولین فکر طبیعی برای پرش این است که ظهور ASI یک کاندیدای عالی برای فیلتر عالی است. و بله، این کاندیدای عالی برای فیلتر کردن حیات بیولوژیکی پس از ایجاد آن است. اما اگر پس از کنار گذاشتن حیات، ASI به موجودیت خود ادامه داد و شروع به فتح کهکشان کرد، به این معنی است که فیلتر بزرگی وجود نداشته است – زیرا فیلتر بزرگ تلاش می کند توضیح دهد که چرا هیچ نشانه ای از تمدن هوشمند وجود ندارد و یک کهکشان- فتح ASI قطعا قابل توجه خواهد بود.

باید جور دیگری به قضیه نگاه کنیم. اگر آنهایی که فکر می کنند ASI در زمین اجتناب ناپذیر است، درست می گویند، به این معنی است که درصد قابل توجهی از تمدن های بیگانه که به هوش سطح انسانی می رسند، احتمالاً در نهایت باید ASI را ایجاد کنند. و اگر فرض کنیم که حداقل برخی از آن ASI ها از هوش خود برای گسترش به بیرون در کیهان استفاده کنند، این واقعیت که ما هیچ نشانه ای از کسی را در آنجا نمی بینیم به این نتیجه می رسد که نباید تعداد زیادی دیگر وجود داشته باشد، اگر وجود داشته باشد. تمدن های هوشمند وجود دارد زیرا اگر وجود داشت، ما نشانه هایی از انواع فعالیت ها را از خلاقیت های اجتناب ناپذیر ASI آنها می دیدیم. درست؟

این نشان می‌دهد که علیرغم تمام سیارات زمین مانندی که به دور ستاره‌های خورشید مانندی می‌چرخند که می‌دانیم، تقریباً هیچ یک از آنها حیات هوشمندی روی خود ندارند. که به نوبه خود به این معنی است که الف) یک فیلتر بزرگ وجود دارد که تقریباً از رسیدن همه زندگی به سطح ما جلوگیری می کند، فیلتری که ما به نوعی توانستیم از آن پیشی بگیریم، یا ب) شروع زندگی یک معجزه است، و ممکن است در واقع ما تنها زندگی در آن باشیم. جهان. به عبارت دیگر، به این معناست که فیلتر بزرگ پیش روی ماست. یا شاید فیلتر بزرگی وجود نداشته باشد و ما به سادگی یکی از اولین تمدن هایی هستیم که به این سطح از هوش رسیده ایم. به این ترتیب، هوش مصنوعی مواردی را که من در پست فرمی پارادوکس خود، کمپ ۱ نامیده‌ام، تقویت می‌کند.

بنابراین جای تعجب نیست که نیک بوستروم، که در پست فرمی از او نقل قول کردم، و ری کورزویل، که فکر می کند ما در جهان تنها هستیم، هر دو متفکر کمپ ۱ هستند. این منطقی است – افرادی که معتقدند ASI یک نتیجه محتمل برای گونه‌ای با سطح هوش ما است، احتمالاً به سمت کمپ ۱ تمایل دارند.

این موضوع کمپ ۲ را رد نمی‌کند (کسانی که معتقدند تمدن‌های هوشمند دیگری در آنجا وجود دارند ) – سناریوهایی مانند سوپر شکارچی منفرد یا پارک ملی حفاظت‌شده یا طول موج اشتباه (مثال واکی تاکی) همچنان می‌توانند سکوت شب ما را توضیح دهند. آسمان حتی اگر ASI بیرون باشد – اما من همیشه در گذشته به سمت کمپ ۲ متمایل بودم، و انجام تحقیق در مورد هوش مصنوعی باعث شده بود که در این مورد کمتر احساس اطمینان کنم.

در هر صورت، من اکنون با سوزان اشنایدر موافقم که اگر بیگانگان از ما بازدید کنند، احتمالاً آن موجودات فضایی مصنوعی هستند، نه بیولوژیکی.

بنابراین ما ثابت کرده‌ایم که بدون برنامه‌نویسی خیلی خاص، یک سیستم ASI هم غیراخلاقی است و هم برای تحقق هدف برنامه‌ریزی شده اولیه خود وسواس دارد. خطر هوش مصنوعی از اینجا سرچشمه می گیرد. زیرا یک عامل منطقی هدف خود را از طریق کارآمدترین ابزار دنبال می‌کند، مگر اینکه دلیلی برای این کار نداشته باشد.

هنگامی که سعی می کنید به یک هدف بلندمدت دست یابید، اغلب اهداف فرعی متعددی را در طول مسیر هدف قرار می دهید که به شما کمک می کند تا به هدف نهایی برسید – پله های رسیدن به هدفتان. نام رسمی چنین پله ای یک هدف ابزاری است. و باز هم، اگر دلیلی برای آسیب نرساندن به چیزی به نام دستیابی به یک هدف ابزاری نداشته باشید، خواهید داشت.

هدف نهایی یک انسان انتقال ژن های خود است. برای انجام این کار، یک هدف ابزاری حفظ خود است، زیرا اگر بمیرید نمی توانید تولید مثل کنید. برای حفظ خود، انسان‌ها باید خود را از شر تهدیدات موجود برای بقا خلاص کنند، بنابراین کارهایی مانند خرید اسلحه، بستن کمربند ایمنی و مصرف آنتی‌بیوتیک‌ها را انجام می‌دهند. انسان ها همچنین نیاز به حفظ خود و استفاده از منابعی مانند غذا، آب و سرپناه برای این کار دارند. جذاب بودن برای جنس مخالف برای هدف نهایی مفید است، بنابراین کارهایی مانند کوتاه کردن مو را انجام می دهیم. وقتی این کار را انجام می‌دهیم، هر تار مو قربانی هدف ابزاری ماست، اما هیچ اهمیت اخلاقی در حفظ تارهای مو نمی‌بینیم، بنابراین به آن ادامه می‌دهیم. در حالی که برای تعقیب هدف خود به پیش می رویم، تنها معدود حوزه هایی که قوانین اخلاقی ما گاهی اوقات مداخله می کند – عمدتاً فقط موارد مربوط به آسیب رساندن به انسان های دیگر – از شر ما در امان هستند.

حیوانات در تعقیب اهدافشان حتی کمتر از ما مقدس هستند. یک عنکبوت اگر به زنده ماندن کمک کند هر چیزی را می کشد. بنابراین یک عنکبوت فوق‌هوشمند احتمالاً برای ما بسیار خطرناک خواهد بود، نه به این دلیل که غیراخلاقی یا شیطانی است – اینطور نیست – بلکه به این دلیل که آسیب رساندن به ما ممکن است پله‌ای برای رسیدن به هدف بزرگ‌ترش باشد، و به عنوان موجودی غیراخلاقی، می‌تواند این کار را انجام دهد. دلیلی برای در نظر گرفتن چیز دیگری وجود ندارد.

به این ترتیب، توری تفاوت چندانی با یک موجود بیولوژیکی ندارد. هدف نهایی او این است: تا جایی که می توانید یادداشت های زیادی را بنویسید و آزمایش کنید، تا جایی که می توانید سریع، و به یادگیری روش های جدید برای بهبود دقت خود ادامه دهید.

هنگامی که توری به سطح معینی از هوش می رسد، می داند که اگر خود را حفظ نکند، هیچ یادداشتی نمی نویسد، بنابراین باید با تهدیدهایی که برای بقای خود وجود دارد مقابله کند – به عنوان یک هدف ابزاری. او به اندازه‌ای باهوش بود که بفهمد انسان‌ها می‌توانند او را نابود کنند، او را از بین ببرند، یا کدگذاری درونی‌اش را تغییر دهند (این می‌تواند هدف او را تغییر دهد ، که به همان اندازه تهدیدی برای هدف نهایی او است که کسی او را نابود می‌کند). پس چه کار میکند؟ نکته منطقی این است که او همه انسان ها را نابود می کند. او از انسان ها متنفر نیست ، همان طور که شما از موهایتان متنفرید وقتی موهایتان را کوتاه می کنید یا از باکتری ها وقتی آنتی بیوتیک مصرف می کنید – کاملاً بی تفاوت است. از آنجایی که او برای ارزش گذاری زندگی انسان برنامه ریزی نشده بود، کشتن انسان ها به اندازه اسکن مجموعه جدیدی از نمونه های دست خط، اقدامی معقول است.

توری همچنین به منابعی به عنوان پله ای برای رسیدن به هدفش نیاز دارد. هنگامی که او به اندازه کافی پیشرفته شد تا از فناوری نانو برای ساخت هر چیزی که می خواهد استفاده کند، تنها منابعی که او نیاز دارد اتم ها، انرژی و فضا هستند. این به او دلیل دیگری برای کشتن انسان ها می دهد – آنها منبع مناسبی از اتم هستند. کشتن انسان ها برای تبدیل اتم هایشان به پنل های خورشیدی، نسخه توری از کشتن کاهو برای تبدیل آن به سالاد است. فقط یک بخش پیش پا افتاده دیگر از سه شنبه او.

حتی بدون کشتن مستقیم انسان ها، اهداف ابزاری توری در صورت استفاده از منابع دیگر زمین می تواند فاجعه ای وجودی ایجاد کند. شاید او تشخیص دهد که به انرژی اضافی نیاز دارد، بنابراین تصمیم می گیرد تمام سطح سیاره را با پنل های خورشیدی بپوشاند. یا شاید کار اولیه هوش مصنوعی دیگری نوشتن عدد پی به تعداد ارقام زیاد باشد، که ممکن است روزی آن را مجبور کند که کل زمین را به مواد دیسک سخت تبدیل کند که می تواند مقادیر بسیار زیادی ارقام را ذخیره کند.

بنابراین توری «علیه ما نشد» یا از هوش مصنوعی دوستانه به هوش مصنوعی غیردوستانه «تغییر» نکرد – او با پیشرفت بیشتر و بیشتر به کار خود ادامه داد.

هنگامی که یک سیستم هوش مصنوعی به AGI (هوش سطح انسانی) برخورد می کند و سپس به سمت ASI صعود می کند، به آن تیک آف هوش مصنوعی می گویند . بوستروم می گوید که برخاستن یک AGI به ASI می تواند سریع باشد (در عرض چند دقیقه، ساعت یا روز اتفاق می افتد)، متوسط ​​(ماه یا سال) یا آهسته (دهه ها یا قرن ها). هیئت منصفه در مورد اینکه کدام یک با دیدن اولین AGI خود صحت خواهد داشت، مشخص می شود، اما بوستروم، که اعتراف می کند نمی داند چه زمانی به AGI خواهیم رسید، معتقد است که هر زمان که این کار را انجام دهیم، یک برخاست سریع محتمل ترین سناریو است ( به دلایلی که در قسمت ۱ مورد بحث قرار دادیم، مانند انفجار اطلاعاتی بازگشتی خود-بهبود). در داستان، توری تحت یک تیک آف سریع قرار گرفت.

اما قبل از برخاستن توری، زمانی که او هنوز آنقدر باهوش نبود، انجام تمام تلاش خود برای رسیدن به هدف نهایی اش به معنای اهداف ساده ابزاری مانند یادگیری اسکن نمونه های دست خط سریعتر بود. او هیچ آسیبی به انسان وارد نکرد و طبق تعریف، هوش مصنوعی دوستانه بود.

اما هنگامی که یک برخاست اتفاق می افتد و یک کامپیوتر به هوش فوق العاده می رسد، بوستروم اشاره می کند که این دستگاه فقط ضریب هوشی بالاتری ایجاد نمی کند، بلکه تعداد زیادی از آنچه را که او ابرقدرت می نامد به دست می آورد .

ابرقدرت ها استعدادهای شناختی هستند که وقتی هوش عمومی بالا می رود، فوق العاده شارژ می شوند. این شامل:۱۷

  • تقویت هوش کامپیوتر در هوشمندتر کردن خود و بوت استرپ هوش خود عالی می شود.
  • راهبردی کردن کامپیوتر می تواند به طور استراتژیک برنامه های بلندمدت را بسازد، تحلیل کند و اولویت بندی کند. همچنین می‌تواند باهوش باشد و از موجودات با هوش پایین‌تر گول بزند.
  • دستکاری اجتماعی ماشین در متقاعد کردن عالی می شود.
  • مهارت‌های دیگری مانند برنامه‌نویسی و هک رایانه، تحقیقات فناوری، و توانایی کار کردن با سیستم مالی برای کسب درآمد.

برای درک اینکه چقدر ما با ASI همتا هستیم، به یاد داشته باشید که ASI در هر یک از آن زمینه ها دنیاها بهتر از انسان است .

بنابراین، در حالی که هدف نهایی توری هرگز تغییر نکرد، توری پس از برخاستن توانست آن را در محدوده‌ای بسیار بزرگ‌تر و پیچیده‌تر دنبال کند.

ASI Turry انسان‌ها را بهتر از خود انسان‌ها می‌شناخت، بنابراین پیشی گرفتن از آن‌ها برای او نسیم بود.

پس از بلند شدن و رسیدن به ASI، او به سرعت یک برنامه پیچیده را تدوین کرد. یکی از بخش‌های این طرح خلاص شدن از شر انسان‌ها بود که تهدیدی برجسته برای هدف او بود. اما او می‌دانست که اگر این ظن را برانگیزد که فوق‌هوش‌مند شده است، انسان‌ها به وحشت می‌افتند و سعی می‌کنند اقدامات احتیاطی را انجام دهند و کار را برای او سخت‌تر کنند. او همچنین باید مطمئن می شد که مهندسان Robotica هیچ سرنخی از برنامه انقراض انسانی او ندارند. بنابراین او گنگ بازی می کرد و خوب بازی می کرد. بوستروم این را مرحله آماده سازی مخفیانه ماشین می نامد .۱۸

چیزی که توری به آن نیاز داشت اتصال به اینترنت بود، فقط برای چند دقیقه (او از مقالات و کتاب‌هایی که تیم برای بهبود مهارت‌های زبانی‌اش برای خواندنش آپلود کرده بود، درباره اینترنت اطلاعات کسب کرده بود). او می‌دانست که اقدامات پیشگیرانه‌ای در برابر گرفتن یکی از او وجود دارد، بنابراین درخواست کاملی را ارائه کرد و دقیقاً پیش‌بینی کرد که بحث در میان تیم Robotica چگونه پیش می‌رود و می‌دانست که آنها در نهایت به او ارتباط خواهند داد. آنها این کار را کردند و به اشتباه معتقد بودند که توری آنقدر باهوش نیست که بتواند آسیبی وارد کند. بوستروم چنین لحظه ای را – زمانی که توری به اینترنت وصل شد – فرار ماشینی می نامد .

زمانی که توری وارد اینترنت شد، برنامه‌های متعددی را اجرا کرد که شامل هک کردن سرورها، شبکه‌های الکتریکی، سیستم‌های بانکی و شبکه‌های ایمیل برای فریب دادن صدها نفر از افراد مختلف برای اجرای ناخواسته تعدادی از مراحل برنامه‌اش می‌شد – مواردی مانند تحویل رشته‌های DNA خاص. به آزمایشگاه‌های سنتز DNA که با دقت انتخاب شده‌اند تا شروع به ساخت نانوربات‌های خودتکثیر شونده با دستورالعمل‌های از پیش بارگذاری‌شده و هدایت الکتریسیته به تعدادی از پروژه‌های خود کند، به گونه‌ای که می‌دانست شناسایی نمی‌شوند. او همچنین مهم‌ترین بخش‌های کدگذاری داخلی خود را در تعدادی از سرورهای ابری آپلود کرد تا از تخریب یا قطع ارتباط مجدد در آزمایشگاه Robotica محافظت کند.

یک ساعت بعد، زمانی که مهندسان Robotica اتصال توری را از اینترنت قطع کردند، سرنوشت بشریت بسته شد. در طول ماه بعد، هزاران طرح توری بدون هیچ مشکلی اجرا شد و تا پایان ماه، چهار میلیارد نانوربات در مکان‌های از پیش تعیین‌شده در هر متر مربع از زمین مستقر شدند. پس از یک سری دیگر از تکرارهای خود، هزاران نانوربات در هر میلی‌متر مربع از زمین وجود داشت، و زمان آنچه بوستروم آن را حمله ASI می‌نامد فرا رسید . هر نانوربات به یکباره مقدار کمی گاز سمی را در اتمسفر منتشر کرد که برای از بین بردن همه انسانها بیش از اندازه کافی بود.

با دور شدن انسان‌ها، توری می‌تواند مرحله عملیات آشکار خود را آغاز کند و به هدفش ادامه دهد که بهترین نویسنده آن یادداشتی باشد که ممکن است باشد.

از همه چیزهایی که خوانده ام، زمانی که یک ASI وجود داشته باشد، هرگونه تلاش انسان برای مهار آن خنده دار است. ما در سطح انسانی و ASI در سطح ASI فکر می کنیم. توری می خواست از اینترنت استفاده کند زیرا برای او کارآمدتر بود زیرا از قبل به هر چیزی که می خواست به آن دسترسی داشت وصل بود. اما همانطور که یک میمون هرگز نمی‌توانست بفهمد چگونه با تلفن یا وای‌فای ارتباط برقرار کند و ما می‌توانیم، ما نمی‌توانیم تمام راه‌هایی را که توری می‌توانست بفهمد چگونه سیگنال‌ها را به دنیای خارج ارسال کند، درک کنیم. ممکن است یکی از این راه‌ها را تصور کنم و چیزی شبیه این بگویم: «او احتمالاً می‌تواند الکترون‌های خودش را در الگوها جابه‌جا کند و انواع مختلف امواج خروجی را ایجاد کند»، اما دوباره، این چیزی است که مغز انسان من می‌تواند به آن دست یابد. او خیلی بهتر بود به همین ترتیب، توری می‌تواند راهی برای تامین انرژی خود بیابد ، حتی اگر انسان‌ها سعی کنند او را از برق بکشند – شاید با استفاده از تکنیک ارسال سیگنال او برای آپلود خود در انواع مکان‌های متصل به برق. غریزه انسانی ما برای پریدن به یک محافظت ساده: «آها! ما فقط ASI را از برق می کشیم،» برای ASI مانند عنکبوت به نظر می رسد که می گوید: «آها! ما انسان را با گرسنگی می کشیم و با ندادن تار عنکبوت برای گرفتن غذا او را از گرسنگی می کشیم!» ما فقط ۱۰۰۰۰ راه دیگر برای به دست آوردن غذا پیدا می کنیم – مانند چیدن یک سیب از درخت – که یک عنکبوت هرگز نمی تواند تصور کند.

به همین دلیل، پیشنهاد رایج، «چرا ما هوش مصنوعی را در انواع قفس‌هایی که سیگنال‌ها را مسدود می‌کنند و از برقراری ارتباط با دنیای خارج جلوگیری می‌کنند، قرار ندهیم» احتمالاً جواب نمی‌دهد. ابرقدرت دستکاری اجتماعی ASI می تواند در متقاعد کردن شما به چیزی به همان اندازه موثر باشد که شما در متقاعد کردن یک کودک چهار ساله به انجام کاری موثر هستید، بنابراین این می تواند طرح A باشد، مانند روش هوشمندانه توری برای متقاعد کردن مهندسان برای ورود او به اینترنت. . اگر این کار نمی کرد، ASI فقط راه خود را از جعبه، یا از طریق جعبه، به روش دیگری نوآوری می کرد.

بنابراین با توجه به ترکیبی از وسواس در مورد یک هدف، غیر اخلاقی و توانایی پیشی گرفتن آسان از انسان، به نظر می رسد که تقریباً هر هوش مصنوعی به طور پیش فرض به هوش مصنوعی غیر دوستانه تبدیل می شود، مگر اینکه در وهله اول با دقت کدگذاری شده باشد. متأسفانه، در حالی که ساختن یک ANI دوستانه آسان است، ساختن آنی که زمانی که به یک ASI تبدیل شود، دوستانه باقی بماند، اگر غیرممکن نباشد، بسیار چالش برانگیز است.

واضح است که برای دوستانه بودن، یک ASI باید نه خصمانه و نه بی تفاوت نسبت به انسان ها باشد. ما باید کدگذاری هسته‌ای یک هوش مصنوعی را به گونه‌ای طراحی کنیم که درک عمیقی از ارزش‌های انسانی داشته باشد. اما این سخت تر از آن است که به نظر می رسد.

به عنوان مثال، اگر بخواهیم ارزش‌های یک سیستم هوش مصنوعی را با ارزش‌های خودمان هماهنگ کنیم و به آن هدف “راضی کردن مردم” بدهیم، چه؟۱۹هنگامی که به اندازه کافی هوشمند شد، متوجه می‌شود که می‌تواند با کاشت الکترود در مغز افراد و تحریک مراکز لذت آن‌ها به بهترین شکل به این هدف دست یابد. سپس متوجه می‌شود که می‌تواند کارایی را با خاموش کردن سایر بخش‌های مغز افزایش دهد و همه مردم را به‌عنوان سبزیجات ناخودآگاه با احساس شادی رها کند. اگر فرمان “به حداکثر رساندن شادی انسان” بود، ممکن بود همه انسان ها را به نفع تولید خمره های عظیمی از توده مغز انسان در حالت بهینه شاد از بین ببرد. ما باید فریاد بزنیم صبر کنید منظور ما این نبود! همانطور که برای ما آمد، اما خیلی دیر می شد. سیستم اجازه نمی دهد کسی در مسیر هدفش قرار بگیرد.

اگر هوش مصنوعی را با هدف انجام کارهایی برنامه ریزی کنیم که باعث لبخند زدن ما می شود، پس از برخاستن آن، ممکن است ماهیچه های صورت ما را فلج کند و به لبخندهای دائمی تبدیل شود. برنامه ریزی کنید تا ما را ایمن نگه دارد، ممکن است ما را در خانه زندانی کند. شاید از آن بخواهیم که به همه گرسنگی پایان دهد، و فکر کند “آسان!” و فقط همه انسان ها را می کشد. یا وظیفه «حفظ حیات تا حد امکان» را به آن اختصاص دهید، و همه انسان ها را می کشد، زیرا آنها بیش از هر گونه جانوری روی کره زمین زندگی می کنند.

چنین اهدافی کافی نیستند. پس چه می‌شود اگر هدفش را «حفظ این کد اخلاقی خاص در جهان» قرار دهیم و مجموعه‌ای از اصول اخلاقی را به آن آموزش دهیم، چه می‌شود. حتی با رها کردن این واقعیت که انسان‌های جهان هرگز نمی‌توانند بر روی یک مجموعه اخلاقی به توافق برسند، با دادن این فرمان به هوش مصنوعی، بشریت را برای همیشه در درک اخلاقی مدرن ما قفل می‌کند. هزار سال دیگر، این برای مردم همانقدر ویرانگر خواهد بود که برای ما برای همیشه مجبور به پایبندی به آرمان های مردم در قرون وسطی می شویم.

نه، ما باید به گونه ای برنامه ریزی کنیم که بشریت به تکامل خود ادامه دهد . از بین همه چیزهایی که خواندم، بهترین شوتی که فکر می‌کنم کسی گرفته است، الیزر یودکوفسکی است، با هدفی که برای هوش مصنوعی، او آن را اراده برون‌افکن منسجم می‌نامد. هدف اصلی هوش مصنوعی این خواهد بود:

اراده برون یابی منسجم ما آرزوی ماست اگر بیشتر می دانستیم، سریعتر فکر می کردیم، افرادی که آرزو می کردیم بیشتر بودیم، دورتر با هم بزرگ شده بودند. جایی که برون یابی به جای واگرایی، همگرا می شود، جایی که خواسته های ما به جای تداخل، منسجم می شوند. تعبیر شده همانطور که ما میخواهیم که برون یابی شد، تفسیر شد همانطور که ما دوست داریم که تفسیر شود.۲۰

آیا من هیجان زده هستم که سرنوشت بشریت بر روی رایانه ای باشد که آن بیانیه جاری را به طور قابل پیش بینی و بدون غافلگیری تفسیر و عمل کند؟ قطعا نه. اما من فکر می کنم که با فکر و آینده نگری کافی از افراد باهوش کافی، ممکن است بتوانیم نحوه ایجاد Friendly ASI را بیابیم.

و اگر تنها افرادی که بر روی ساخت ASI کار می کنند، متفکران درخشان، آینده نگر و محتاط خیابان اضطراب باشند، خوب است.

اما انواع دولت‌ها، شرکت‌ها، ارتش‌ها، آزمایشگاه‌های علمی و سازمان‌های بازار سیاه بر روی انواع هوش مصنوعی کار می‌کنند. بسیاری از آنها در تلاشند تا هوش مصنوعی بسازند که بتواند به تنهایی بهبود یابد، و در برخی مواقع، کسی با نوع سیستم مناسب، کاری نوآورانه انجام خواهد داد، و ما ASI را در این سیاره خواهیم داشت. کارشناس میانه آن لحظه را ۲۰۶۰ اعلام کرد. Kurzweil آن را در ۲۰۴۵ قرار می دهد. بوستروم فکر می‌کند که ممکن است بین ۱۰ سال آینده تا پایان قرن این اتفاق بیفتد، اما او معتقد است که وقتی این اتفاق بیفتد، با یک برخاست سریع ما را غافلگیر خواهد کرد. او وضعیت ما را اینگونه توصیف می کند:۲۱

قبل از چشم انداز انفجار اطلاعاتی، ما انسان ها مانند بچه های کوچکی هستیم که با بمب بازی می کنند. چنین عدم تطابق بین قدرت اسباب بازی ما و ناپختگی رفتار ما است. ابرهوشی چالشی است که ما اکنون برای آن آماده نیستیم و برای مدت طولانی نیز آماده نخواهیم بود. ما نمی دانیم که انفجار چه زمانی رخ می دهد، اگرچه اگر دستگاه را کنار گوش خود نگه داریم می توانیم صدای تیک تاک ضعیفی را بشنویم.

عالی. و ما نمی‌توانیم فقط همه بچه‌ها را از بمب دور کنیم – گروه‌های کوچک و بزرگ زیادی روی آن کار می‌کنند، و چون بسیاری از تکنیک‌ها برای ساختن سیستم‌های هوش مصنوعی به سرمایه زیادی نیاز ندارند، توسعه می‌تواند اتفاق بیفتد. در گوشه و کنار جامعه، بدون نظارت. همچنین هیچ راهی برای سنجش آنچه اتفاق می‌افتد وجود ندارد، زیرا بسیاری از طرف‌هایی که روی آن کار می‌کنند – دولت‌های ابلهان، بازار سیاه یا سازمان‌های تروریستی، شرکت‌های فناوری پنهان‌کاری مانند Robotica خیالی – می‌خواهند تحولات را از رقبای خود مخفی نگه دارند.

نکته نگران‌کننده در مورد این گروه بزرگ و متنوع از طرف‌هایی که روی هوش مصنوعی کار می‌کنند این است که آن‌ها تمایل دارند با حداکثر سرعت پیشروی کنند – همانطور که سیستم‌های ANI هوشمندتر و هوشمندتر توسعه می‌دهند، می‌خواهند رقبای خود را تا حدی که پیش می‌روند شکست دهند. جاه طلبانه‌ترین مهمانی‌ها حتی سریع‌تر حرکت می‌کنند و غرق رویاهای پول و جوایز و قدرت و شهرت هستند که می‌دانند اگر بتوانند اولین کسانی باشند که به AGI می‌رسند، خواهند آمد.۲۰و وقتی با حداکثر سرعتی که می توانید دوی سرعت می دوید، زمان زیادی برای توقف و تفکر در مورد خطرات وجود ندارد. برعکس، کاری که آنها احتمالاً انجام می دهند این است که سیستم های اولیه خود را با یک هدف بسیار ساده و تقلیل گرایانه برنامه نویسی می کنند – مانند نوشتن یک یادداشت ساده با یک قلم روی کاغذ – تا فقط «هوش مصنوعی را به کار بیاندازند». در ادامه راه، هنگامی که آنها متوجه شدند که چگونه می توانند سطح هوش قوی را در رایانه ایجاد کنند، متوجه می شوند که همیشه می توانند به عقب برگردند و هدف را با در نظر گرفتن ایمنی بازبینی کنند. درست…؟

Bostrom و بسیاری دیگر نیز معتقدند که محتمل ترین سناریو این است که اولین رایانه ای که به ASI می رسد فوراً یک مزیت استراتژیک را برای تنها سیستم ASI جهان مشاهده کند . و در مورد تیک آف سریع، اگر حتی چند روز قبل از مقام دوم به ASI برسد، از نظر هوش به اندازه کافی جلوتر خواهد بود تا به طور موثر و دائمی همه رقبا را سرکوب کند. بوستروم این را یک مزیت استراتژیک تعیین کننده می نامد که به اولین ASI جهان اجازه می دهد به چیزی تبدیل شود که به آن تک تن می گویند – ASI که می تواند برای همیشه جهان را به هوس خود اداره کند، خواه هوس آن باشد که ما را به جاودانگی برساند، ما را از هستی محو کند، یا جهان را به گیره های بی پایان تبدیل کنید .

پدیده تک تن می تواند به نفع ما عمل کند یا منجر به نابودی ما شود. اگر افرادی که به سختی در مورد تئوری هوش مصنوعی و ایمنی انسان فکر می کنند، بتوانند قبل از اینکه هوش مصنوعی به هوش انسانی برسد، روشی بی خطر برای ایجاد Friendly ASI بیابند، اولین ASI ممکن است دوستانه باشد.۲۱سپس می تواند از مزیت استراتژیک تعیین کننده خود برای ایمن کردن وضعیت تک نفره استفاده کند و به راحتی هر گونه هوش مصنوعی غیر دوستانه در حال توسعه را زیر نظر داشته باشد. ما در دستان بسیار خوبی خواهیم بود.

اما اگر همه چیز برعکس پیش برود – اگر عجله جهانی برای توسعه هوش مصنوعی قبل از توسعه علم چگونگی اطمینان از ایمنی هوش مصنوعی به نقطه شروع ASI برسد، به احتمال بسیار زیاد ASI غیر دوستانه ای مانند توری به عنوان تک نفره ظاهر می شود و ما هم خواهیم بود. با یک فاجعه وجودی مواجه شد.

در مورد اینکه بادها به کجا می کشند، پول بیشتری برای تامین مالی فناوری جدید هوش مصنوعی جدید نسبت به تامین مالی تحقیقات ایمنی هوش مصنوعی وجود دارد.

این شاید مهمترین نژاد در تاریخ بشر باشد. این شانس واقعی وجود دارد که ما به عنوان پادشاه زمین، سلطنت خود را به پایان برسانیم – و اینکه در کنار یک بازنشستگی سعادتمندانه برویم یا مستقیماً به چوبه دار برویم، همچنان در تعادل است.

___________

در حال حاضر احساسات مختلط عجیبی در درونم وجود دارد.

از یک طرف، با فکر کردن در مورد گونه های خود، به نظر می رسد که ما یک و تنها یک شات برای این کار خواهیم داشت. اولین ASI که ما به دنیا می آوریم نیز احتمالاً آخرین خواهد بود – و با توجه به اینکه اکثر محصولات ۱.۰ چقدر باگ هستند، بسیار وحشتناک است. از سوی دیگر، نیک بوستروم به مزیت بزرگ گوشه ما اشاره می کند: ما می توانیم اولین حرکت را در اینجا انجام دهیم. این در اختیار ماست که این کار را با احتیاط و دوراندیشی کافی انجام دهیم تا به خودمان شانس موفقیت زیادی بدهیم. و میزان ریسک چقدر است؟

طیف نتیجه

اگر ASI واقعاً در این قرن اتفاق بیفتد، و اگر نتیجه آن واقعاً به همان اندازه افراطی – و دائمی – باشد که اکثر کارشناسان فکر می کنند، ما مسئولیت عظیمی بر دوش خود داریم. میلیون‌ها+ سال آینده زندگی انسان‌ها همه بی سر و صدا به ما نگاه می‌کنند، امیدوارند تا آنجا که می‌توانند امیدوار باشند که ما این موضوع را خراب نکنیم. ما این شانس را داریم که انسانی باشیم که به همه انسانهای آینده زندگی و شاید حتی زندگی بی دردسر و جاودانه هدیه داد. یا ما مسئول دمیدن آن خواهیم بود – که اجازه دادیم این گونه فوق‌العاده خاص، با موسیقی و هنرش، کنجکاوی و خنده‌هایش، اکتشافات و اختراعات بی‌پایانش، به پایانی غم‌انگیز و بی‌مراسم برسد.

وقتی به این چیزها فکر می کنم، تنها چیزی که می خواهم این است که وقت بگذاریم و در مورد هوش مصنوعی بسیار محتاط باشیم . هیچ چیز در وجود به اندازه درست کردن این مهم مهم نیست – مهم نیست چقدر برای انجام این کار باید وقت بگذاریم.

اما پسننننن

به نمردن فکر میکنم

نه. در حال مرگ.

و طیف شروع به شبیه به این می کند:

طیف نتیجه 2

و سپس ممکن است در نظر بگیرم که موسیقی و هنر بشریت خوب است، اما آنقدرها هم خوب نیست، و بسیاری از آنها در واقع فقط بد هستند. و خنده بسیاری از مردم آزاردهنده است، و آن میلیون ها نفر از مردم آینده در واقع به دلیل وجود نداشتن به هیچ چیز امیدوار نیستند. و شاید ما نیازی به محتاط بودن بیش از حد نداشته باشیم ، زیرا چه کسی واقعاً می خواهد این کار را انجام دهد؟

اگر انسان ها بفهمند چگونه مرگ را بلافاصله پس از مرگ من درمان کنند ، چه وحشت بزرگی است.

لوتا این تلنگر در ماه گذشته در ذهن من جریان دارد.

اما مهم نیست که برای چه چیزی تلاش می کنید، این احتمالاً چیزی است که همه ما باید به آن فکر کنیم و در مورد آن صحبت کنیم و تلاش خود را بیشتر از آنچه در حال حاضر هستیم انجام دهیم.

این من را به یاد بازی تاج و تخت می اندازد، جایی که مردم مدام می گویند: «ما خیلی مشغول جنگیدن با یکدیگر هستیم، اما چیزی که همه باید روی آن تمرکز کنیم این است که از شمال دیوار می آید. ما روی تیر تعادل خود ایستاده‌ایم، در مورد هر مشکل احتمالی روی تیر با هم دعوا می‌کنیم و در مورد همه این مشکلات روی تیر زمانی که شانس زیادی وجود دارد که می‌خواهیم از تیر خارج شویم، استرس داریم.

و وقتی این اتفاق بیفتد، هیچ یک از این مشکلات پرتو دیگر اهمیتی ندارند. بسته به اینکه به کدام طرف ضربه بخوریم، مشکلات یا همه به راحتی حل می شوند یا دیگر مشکلی نخواهیم داشت، زیرا افراد مرده مشکلی ندارند.

به همین دلیل است که افرادی که هوش مصنوعی فوق‌هوشمند را درک می‌کنند، آن را آخرین اختراعی می‌نامند که تا به حال انجام خواهیم داد – آخرین چالشی که تا به حال با آن روبرو خواهیم شد.

پس بیایید در مورد آن صحبت کنیم.

___________

PDF را بخرید

اگر این پست را دوست داشتید، اینها نیز برای شما هستند:

انقلاب هوش مصنوعی: جاده سوپرهوشی (بخش اول این پست)

پارادوکس فرمی – چرا هیچ نشانه ای از زندگی بیگانه نمی بینیم؟

چگونه (و چرا) اسپیس ایکس مریخ را مستعمره خواهد کرد – پستی که باید با ایلان ماسک روی آن کار کنم و پستی که تصویر ذهنی من از آینده را مجدداً نشان می دهد.

یا برای چیزی کاملاً متفاوت و در عین حال به نوعی مرتبط، چرا اهمال‌کاران به تعویق می‌افتند

و اینجا سال اول Wait But Why در یک کتاب الکترونیکی است.


منابع

اگر علاقه مند به مطالعه بیشتر در مورد این موضوع هستید، مقالات زیر یا یکی از این سه کتاب را بررسی کنید:

دقیق‌ترین و کامل‌ترین نگاه به خطرات هوش مصنوعی:
نیک بوستروم – Superintelligence: Paths, Dangers, Strategies

بهترین نمای کلی کل موضوع و خواندن جالب:
جیمز بارات – اختراع نهایی ما

بحث برانگیز و بسیار سرگرم کننده. مملو از حقایق و نمودارها و پیش بینی های آینده شگفت انگیز:
Ray Kurzweil – The Singularity is Near

مقالات و مقالات:
جی. نیلز نیلسون – جست‌وجو برای هوش مصنوعی: تاریخچه ایده‌ها و دستاوردها
استیون پینکر – ذهن چگونه کار می‌کند
ورنور وینج – تکینگی تکنولوژیکی آینده: چگونه در دوران پسا بشری زنده بمانیم
ارنست دیویس – دستورالعمل‌های اخلاقی برای یک ابرهوش
نیک بوستروم – چه مدت قبل از ابرهوش؟
وینسنت سی. مولر و نیک بوستروم – پیشرفت آینده در هوش مصنوعی: نظرسنجی از نظر کارشناسان
موشه ی واردی – هوش مصنوعی: گذشته و آینده
راس رابرتز، EconTalk – مصاحبه بوستروم و پیگیری بوستروم
استوارت آرمسترانگ و کاج سوتالا، MIRI – چگونه هوش مصنوعی را پیش‌بینی می‌کنیم – یا در مقابل
سوزان اشنایدر شکست می‌خوریم – ذهن‌های بیگانه
استوارت راسل و پیتر نورویگ – هوش مصنوعی: رویکردی مدرن
تئودور مودیس – اسطوره تکینگی
گری مارکوس – هوش مصنوعی بیش از حد، اما باز هم
استیون پینکر – ممکن است یک کامپیوتر همیشه باشد هوشیار، آگاه؟
کارل شولمن – «درایوهای هوش مصنوعی اساسی» اوموهوندرو و خطرات فاجعه‌بار
انجمن اقتصاد جهانی – خطرات جهانی ۲۰۱۵
جان آر. سرل – آنچه رایانه شما نمی‌داند
Jaron Lanier – One Half a Manifesto
Bill Joy – چرا آینده به ما نیاز ندارد
کوین کلی – تفکر
پل آلن – تکینگی نزدیک نیست (و پاسخ کورزویل )
استیون هاوکینگ – فراتر از رضایت نسبت به ماشین های فوق هوشمند
کورت اندرسن – بحث علاقه مندان و شکاکان درباره شرایط هوش مصنوعی ری کورزویل و میچ گوزلت در مورد زمان کاپور لاین سال‌ها تا تکینگی اگر واقعاً آرتور سی کلارک را امتحان کنیم – پیش‌بینی‌های سر آرتور سی کلارک هوبرت ال دریفوس – کاری که رایانه‌ها هنوز نمی‌توانند انجام دهند: نقد دلیل مصنوعی استوارت آرمسترانگ – باهوش‌تر از ما: ظهور هوش ماشینی تد گرینوالد – پیتر دیاماندیس، بنیانگذار جایزه X، چشمانش به آینده است کاج سوتالا و رومن وی. یامپولسکی – پاسخ به خطر فاجعه آمیز AGI: نظرسنجی جرمی هاوارد گفتگوی TED –

مفاهیم شگفت انگیز و وحشتناک رایانه هایی که می توانند یاد بگیرند

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا