AGA

اگر AGA در دوره جدید ترامپ فرا برسد، دیگرهیچ چیزی اهمیت نخواهد داشت!

بیش از ۳۳ هزار نفر – از جمله بسیاری از برجسته‌ترین متخصصان هوش مصنوعی – نامه‌ای سرگشاده در مارس ۲۰۲۳ امضا کردند که از صنعت فناوری می‌خواست توسعه مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 اوپن‌ای‌آی را به مدت شش ماه متوقف کند. این نامه، که به ابتکار مؤسسه آینده زندگی (Future of Life Institute) منتشر شد، بیان می‌کرد: «سیستم‌های قدرتمند هوش مصنوعی باید تنها زمانی توسعه یابند که مطمئن باشیم اثرات آنها مثبت و خطراتشان قابل کنترل خواهد بود.»

نتیجه: صنعت به این درخواست بی‌توجهی کرد. اما این نامه باعث شد بحثی گسترده پیرامون این موضوع شکل بگیرد که توسعه هوش عمومی مصنوعی (AGI) ممکن است بدون کنترل مناسب از دست انسان خارج شود. این تنها یکی از تلاش‌های این مؤسسه، که بیش از یک دهه قدمت دارد، برای ایجاد گفتگو پیرامون خطرات هوش مصنوعی و روش‌های هدایت مسئولانه این فناوری بود.


فهرست عناوین نمایش

گفتگو با ماکس تگمارک

در کنفرانس وب سامیت در لیسبون، گفت‌وگویی با ماکس تگمارک، یکی از بنیان‌گذاران و رئیس مؤسسه آینده زندگی، انجام شده است. تگمارک، استاد مؤسسه فناوری ماساچوست (MIT)، در زمینه تحقیق درباره «هوش مصنوعی برای فیزیک و فیزیک برای هوش مصنوعی» فعالیت دارد. در این گفتگو، موضوعاتی مانند تأثیر نامه سرگشاده، اهمیت مقررات‌گذاری برای هوش مصنوعی، احتمال تحقق AGI در دوران ریاست جمهوری دونالد ترامپ، و نقش ایلان ماسک در مدیریت این چالش‌ها مورد بحث قرار گرفته است. این گفتگو برای وضوح و اختصار ویرایش شده است.

آیا کارهایی که انجام می‌دهید، حتی با وجود عدم توقف صنعت هوش مصنوعی، به اهداف شما نزدیک شده است؟

هدف من از راه‌اندازی این نامه توقف، این نبود که فکر کنم واقعاً توقفی انجام خواهد شد. البته که آن‌قدر ساده‌لوح نیستم. هدف، عادی‌سازی این بحث و فراهم‌کردن شرایطی بود که افراد بتوانند نگرانی‌های خود را آزادانه بیان کنند. در این مورد، احساس می‌کنم موفقیت بزرگی حاصل شده است.

این موضوع قطعاً توجه زیادی جلب کرد.

بسیاری از افراد و سازمان‌هایی که پیش‌تر درباره این موضوع سکوت کرده بودند، اکنون شروع به صحبت کرده‌اند. به نظر می‌رسید در جامعه نگرانی‌های زیادی وجود داشت، اما بسیاری از افراد از ترس احمق جلوه‌کردن یا برچسب «ضد فناوری» خوردن، سکوت کرده بودند. اما وقتی دیدند رهبران این حوزه نیز نگرانی خود را بیان می‌کنند، احساس کردند این موضوع مشروعیت دارد. این اتفاق به شکل‌گیری موارد دیگری مثل نامه هشدار انقراض و در نهایت برگزاری جلسات استماع در سنا، اجلاس‌های بین‌المللی هوش مصنوعی و تأسیس مؤسسات ایمنی هوش مصنوعی کمک کرد که همگی گام‌های مثبتی هستند.

برای مدت ۱۰ سال، حس می‌کردم مثل یک گرگ تنها هستم که هیچ‌کس به این موضوع توجه نمی‌کند. اما حالا این وضعیت کاملاً تغییر کرده است.

این موضوع که افرادی از سازمان‌های بزرگ نامه شما را امضا کردند، حتی اگر مدیران آنها این کار را نکردند، قابل توجه بود.

اما نامه انقراض در می ۲۰۲۳ توسط مدیران اصلی امضا شد. من این اقدام را تا حدی فریادی برای کمک از سوی برخی از این رهبران می‌دانم، زیرا هیچ شرکتی نمی‌تواند به‌تنهایی متوقف شود؛ آنها توسط رقبا از میدان خارج خواهند شد. تنها نتیجه خوب این است که استانداردهای ایمنی برقرار شوند تا همه در یک شرایط برابر رقابت کنند.

این شبیه وضعیتی است که اگر سازمان غذا و دارو (FDA) وجود نداشت، هیچ شرکت دارویی نمی‌توانست به‌طور یک‌جانبه تولید دارو را متوقف کند. اما اگر FDA وجود داشته باشد و هیچ دارویی بدون تأیید آن منتشر نشود، یک توقف خودکار روی تمام داروهای ناایمن اعمال می‌شود. این مسئله ساختار انگیزشی صنعت را تغییر می‌دهد و آنها را وادار می‌کند روی آزمایش‌های بالینی سرمایه‌گذاری کنند و محصولات ایمن‌تری تولید کنند.

ما این مدل را در تقریباً تمام صنایع آمریکا داریم: داروها، خودروها، هواپیماها، حتی فروشگاه‌های ساندویچ. هرکسی باید تأییدیه بازرسان بهداشتی را بگیرد. اما صنعت هوش مصنوعی کاملاً استثناست؛ هیچ استاندارد ایمنی معناداری برای آن وجود ندارد. اگر پیش‌بینی سم آلتمن محقق شود و به AGI برسد، او از نظر قانونی مجاز است که آن را منتشر کند و ببیند چه اتفاقی می‌افتد.

چقدر اطمینان دارید که می‌دانید مقررات باید چگونه باشد، با توجه به اینکه هوش مصنوعی سریع‌تر از استانداردهای ایمنی مغازه‌های ساندویچ یا حتی داروها پیش می‌رود؟

فکر می‌کنم این موضوع واقعاً ساده است. سخت‌تر این است که چارچوب نهادی‌ای وجود داشته باشد که بتواند هر استانداردی که وضع می‌شود را اجرا کند. شما تمام ذی‌نفعان کلیدی را دور هم جمع می‌کنید، با استانداردهای پایه شروع می‌کنید، و سپس به‌تدریج سطح استانداردها را بالا می‌برید.

برای مثال، در مورد خودروها، ما با الزامات کیسه هوا یا ترمز ضدقفل شروع نکردیم. ابتدا کمربند ایمنی الزامی شد، سپس چراغ‌های راهنمایی و محدودیت‌های سرعت اعمال شدند. این اقدامات بسیار ابتدایی بودند، اما تأثیر زیادی داشتند. زمانی که قانون کمربند ایمنی تصویب شد، باعث کاهش قابل توجهی در مرگ‌ومیرها شد و همین امر فروش خودروها را افزایش داد.

در مورد هوش مصنوعی هم همین‌طور است. برخی اصول بسیار پایه وجود دارند که تقریباً هیچ مخالفتی با آنها نیست و باید در استانداردها گنجانده شوند. به‌عنوان مثال، هوش مصنوعی نباید به تروریست‌ها نحوه ساخت سلاح‌های زیستی را آموزش دهد. چه کسی با این مخالف خواهد بود؟ یا باید اثبات شود که این سیستم‌ها نوعی سیستم خودبهبودیابنده نیستند که کنترل از دست برود.

حتی اگر فقط با همین موارد پایه شروع کنیم، به‌طور خودکار از انتشار AGI جلوگیری می‌شود. در این صورت شاهد تمرکز دوباره روی ابزارهای مفیدتر خواهیم بود: هوش مصنوعی که بیماری‌ها را درمان می‌کند، رنج انسان‌ها را کاهش می‌دهد و کارهایی انجام می‌دهد که واضحاً مطابق با استانداردهاست. من نسبت به بسیاری از مباحث این کنفرانس در Web Summit که نشان می‌دهد چقدر هوش مصنوعی می‌تواند سودمند باشد، خوش‌بین هستم. نگرانی‌ها عمدتاً از دست رفتن کنترل ناشی از کوتاه شدن بازه زمانی‌هاست. اگر بتوانید مطمئن شوید که AGI معادل آزمایش‌های بالینی خودش را طی می‌کند، تمرکز روی جنبه‌های مثبت بیشتر خواهد شد.

آیا می‌توانید پیش‌بینی کنید که دولت جدید چه تأثیری در این زمینه خواهد داشت؟

فکر می‌کنم این مسئله بستگی به این دارد که دونالد ترامپ تا چه حد به حرف ایلان ماسک گوش دهد. از یک طرف، گروهی از افراد مخالف مقررات هستند و سعی می‌کنند ترامپ را متقاعد کنند حتی دستور اجرایی بایدن را، که بسیار ضعیف بود، لغو کند. از طرف دیگر، ایلان ماسک بیش از یک دهه است که از مقررات هوش مصنوعی حمایت می‌کند و اخیراً از قانون‌گذاری ایالتی کالیفرنیا (SB 1047) نیز حمایت کرده است. این موضوع واقعاً به شیمی ارتباطات و میزان نفوذ افراد بستگی دارد.

به نظر من، این موضوع مهم‌ترین مسئله برای دولت ترامپ است، زیرا احتمالاً AGI در دوره ریاست‌جمهوری ترامپ ساخته خواهد شد. بنابراین در طول این دوره، این تصمیمات گرفته می‌شوند: اینکه آیا به سمت یک فاجعه می‌رویم یا هوش مصنوعی به بهترین اتفاق تاریخ تبدیل می‌شود.

اگر کنترل AGI را از دست بدهیم، صادقانه بگویم، هیچ‌کدام از مسائل دیگر اهمیت نخواهند داشت. نامه‌ای که درباره خطر انقراض امضا شد، شوخی نبود. مردم واقعاً درباره انقراض انسان صحبت می‌کردند و کاملاً جدی بودند. من درباره همه مسائل دیگر سیاسی نظراتی دارم و شما هم احتمالاً همین‌طور، اما می‌توانیم همه این‌ها را کنار بگذاریم. هیچ‌کدام از موضوعات سیاسی که ترامپ و کامالا هریس در آنها اختلاف نظر دارند، وقتی انسان منقرض شود، مهم نیستند. حتی اگر منقرض نشویم اما کنترل را به یک گونه جدید از ربات‌های خودبهبوددهنده واگذار کنیم، باز هم این موضوع حیاتی خواهد بود.

البته همه تلاش می‌کنند ترامپ را به این یا آن سمت سوق دهند. اما اگر ترامپ در نهایت از استانداردهای ایمنی هوش مصنوعی حمایت کند، احتمالاً تأثیر ایلان ماسک یکی از دلایل کلیدی آن خواهد بود.

چه پیشرفت‌های جدیدی در حوزه کاری شما رخ داده است؟

من هنوز دو نقش دارم. شغل روزانه من این است که به‌عنوان یک متخصص در MIT تحقیقات مربوط به هوش مصنوعی را انجام می‌دهم. تمرکز ما بر موضوعات فنی مرتبط با کنترل و اعتماد به هوش مصنوعی است. نرم‌افزاری که روی لپ‌تاپ شما نصب شده، عمدتاً توسط انسان‌ها نوشته شده است، بنابراین ما می‌دانیم چگونه کار می‌کند. اما در مورد مدل‌های زبانی بزرگ، عادت کرده‌ایم که هیچ سرنخی از نحوه عملکرد آنها نداشته باشیم. البته، هیچ‌کس در OpenAI هم نمی‌داند این سیستم‌ها چگونه کار می‌کنند.

اما در واقع، خبرهای امیدوارکننده‌ای وجود دارد: ما در حال شروع به درک نحوه عملکرد این مدل‌ها هستیم. من این را علوم اعصاب دیجیتال می‌نامم. همان‌طور که می‌توان مغز انسان را بررسی کرد و تلاش کرد بفهمیم چگونه کار می‌کند. هنوز نمی‌دانیم مغز چگونه کار می‌کند، اما برخی جنبه‌های آن را تقریباً کاملاً درک کرده‌ایم، مثلاً سیستم بصری انسان.

پیشرفت در علوم اعصاب مصنوعی بسیار سریع‌تر بوده است. من بزرگ‌ترین کنفرانس در این زمینه را حدود یک سال و نیم پیش در MIT سازماندهی کردم و از آن زمان، این حوزه واقعاً شکوفا شده است. دلیل پیشرفت سریع‌تر این است که در علوم اعصاب انسانی، شما با صد میلیارد نورون سروکار دارید و سخت می‌توانید بیش از هزار تا را هم‌زمان اندازه‌گیری کنید. علاوه بر این، سر و صدای زیادی وجود دارد و برای دریافت مجوز اخلاقی باید به کمیته بازبینی نهادی مراجعه کنید.

اما در مورد هوش مصنوعی دیجیتال، می‌توانید هر نورون را در هر زمان اندازه‌گیری کنید و حتی سیناپس‌ها را بررسی کنید، و نیازی به تأیید اخلاقی ندارید. این رؤیای دانشمندان برای درک یک سیستم است و پیشرفت‌ها بسیار سریع بوده‌اند. اکنون ما در حال نقشه‌برداری از نحوه ذخیره مفاهیم مختلف در هوش مصنوعی هستیم و شروع به فهم نحوه انجام برخی وظایف جالب توسط این سیستم‌ها کرده‌ایم.

این پیشرفت می‌تواند به ما کمک کند میزان اعتماد به هوش مصنوعی را ارزیابی کنیم. همچنین می‌تواند نشان دهد هوش مصنوعی چه چیزی را می‌داند و چگونه فکر می‌کند. مثلاً ما مقاله‌ای نوشتیم که در آن توانستیم یک دروغ‌سنج بسازیم: می‌توانستیم بفهمیم هوش مصنوعی چه چیزی را درست یا غلط می‌داند و سپس آن را با آنچه ادعا می‌کند درست یا غلط است مقایسه کنیم تا مشخص شود دروغ می‌گوید یا راست. این گام‌های ابتدایی هستند، اما جامعه‌ای در حال رشد است که پیشرفت‌های بسیار سریعی در این زمینه دارد. نباید آن‌قدر بدبین باشیم که فکر کنیم همیشه باید نسبت به نحوه عملکرد این سیستم‌ها بی‌اطلاع بمانیم.

آیا اگر واقعاً آن‌ها را درک کنیم، کنترل آن‌ها بسیار آسان‌تر خواهد شد؟

این بستگی به این دارد که بخواهید چه چیزی را کنترل کنید. اما اگر یک استاندارد ایمنی وجود داشته باشد که بگوید باید نشان دهید که این مدل‌ها هرگز نمی‌توانند به یک تروریست آموزش دهند که چگونه یک سلاح زیستی بسازد، یک راه آسان برای انجام این کار این است که بررسی کنید آیا مدل چیزی درباره زیست‌شناسی می‌داند یا نه. اگر می‌داند، آن اطلاعات را حذف کنید تا مدلی داشته باشید که درباره شکسپیر، هواپیماها و سایر موارد تسلط کامل دارد، اما هیچ چیزی درباره زیست‌شناسی نمی‌داند، بنابراین نمی‌تواند در ساخت یک سلاح زیستی کمک کند.

AGA

اما در برخی سناریوها، دانستن زیست‌شناسی می‌تواند مفید باشد.

البته، اما شاید در این حالت لازم باشد تا زمان بیشتری صرف اخذ مجوز FDA شود. اما فکر می‌کنم می‌توانید متوجه شوید که به کجا می‌روم. شاید بتوانید تعیین کنید که زیست‌شناسی در کل مشکلی ندارد، اما جنبه‌های خاصی وجود دارد که نمی‌خواهید مدل بداند. این همان روشی است که در یک سازمان عمل می‌کنید. اگر رئیس CIA باشید و برخی اطلاعاتی که می‌خواهید واقعاً محافظت کنید، بهترین راه برای اطمینان از اینکه کسی آن اطلاعات را افشا نمی‌کند، این است که اصلاً آن را نداند. به همین صورت، هیچ دلیلی وجود ندارد که هر مدل زبانی بزرگی همه چیز را بداند. امن‌تر است که ماشین‌هایی داشته باشید که فقط اطلاعاتی را بدانند که مشکلی با عمومی بودن یا استفاده عمومی آن ندارید.

بیشتر بخوانید: مغز انسان همچنان بر هوش مصنوعی برتری دارد

اگر مدل‌هایی تخصصی برای کاربردهای خاص داشته باشیم چه؟

اگر چیزی را به یک مرکز پژوهشی مثل دانا فاربر برای تحقیقات سرطان می‌فروشید، می‌توانید مدلی داشته باشید که اطلاعات بیشتری در زمینه زیست‌شناسی دارد. اما احتمالاً برای کار شما نیازی به این اطلاعات نیست، درست است؟ من که مطمئناً نیازی به آن ندارم.

آیا قصد دارید نامه‌های سرگشاده بیشتری بنویسید یا درباره موضوعات دیگر گفت‌وگو ایجاد کنید؟

فکر می‌کنم چیزی که واقعاً به آن نیاز داریم، استانداردهای ایمنی ملی برای هوش مصنوعی است. باید از رفتار ملایم با این صنعت دست برداریم و آن‌ها را مانند تمام صنایع دیگر تحت قوانین قرار دهیم. تصور کنید کسی بگوید FDA را تعطیل کنیم و شرکت‌های زیست‌فناوری بدون استانداردهای ایمنی کار کنند. هوش مصنوعی در این زمینه متفاوت است و دلیل خاصی وجود ندارد که بتواند هر کاری که می‌خواهد انجام دهد. به محض اینکه این استانداردها اعمال شوند، بقیه کارها به خودی خود پیش می‌رود. زیرا شرکت‌ها برای برآورده کردن آن استانداردها شروع به نوآوری خواهند کرد.

اتحادیه اروپا در برخی موارد تأثیر زیادی روی شرکت‌های فناوری آمریکایی داشته است. نظرتان درباره این موضوع چیست؟

فکر می‌کنم قانون اتحادیه اروپا در این زمینه کمی ضعیف است، اما قطعاً قدمی مثبت در مسیر درست است. در حال حاضر، کارهای فنی زیادی انجام می‌شود تا مشخص شود این قوانین در عمل چگونه اجرا شوند، که می‌توان آن‌ها را به راحتی توسط سایر حوزه‌های قضایی مثل ایالات متحده کپی کرد.

همچنین فکر می‌کنم جالب بود که این قانون به نوعی تهدید برخی شرکت‌ها را که گفتند اگر این قانون تصویب شود از اتحادیه اروپا خارج خواهند شد، بی‌اثر کرد. آن‌ها هنوز اینجا هستند. بنابراین وقتی می‌گویند اگر ایالات متحده استانداردهایی وضع کند مجبور به ترک این کشور می‌شوند، قانون‌گذاران آمریکایی می‌دانند که این فقط یک تهدید توخالی است. نمی‌توانم شرکت‌ها را بابت این رفتار سرزنش کنم، زیرا شرکت‌های دخانیات هم همین کار را کردند. شرکت‌ها همیشه به صورت غریزی در برابر قوانین مقاومت می‌کنند. اما هر استاندارد ایمنی موفقی که تاکنون به یاد دارم، همیشه با این ادعا روبرو شده که «آسمان در حال سقوط است.»

اما در همین صنعت هوش مصنوعی افرادی هستند که می‌گویند قانون‌گذاری باید نقش مهمی داشته باشد.

نمی‌خواهم کسی را قضاوت کنم، اما واقعاً خنده‌دار است که برخی افراد می‌گویند «لطفاً ما را قانون‌مند کنید» و وقتی پیشنهادی مثل قانون اتحادیه اروپا یا SB 1047 مطرح می‌شود، می‌گویند «اما نه این‌طوری.» بنابراین فکر می‌کنم این تصمیمات باید به صورت دموکراتیک گرفته شوند. باید به شرکت‌ها گوش داد، اما آن‌ها نباید در زمان تصمیم‌گیری، جایگاهی در میز تصمیم‌گیری داشته باشند.


منبع: FasctCo