بزرگترین خطر هوش مصنوعی چیست؟
بزرگترین خطر هوش مصنوعی چیست؟
مباحث مربوط به حکمرانی هوش مصنوعی در حال حاضر بهطور عمده حول محور «ریسک» میچرخد. در ماه جولای امسال، جفری هینتون، برنده جایزه نوبل و تورینگ، در «کنفرانس جهانی هوش مصنوعی» در شانگهای سخنرانی کرد. عنوان سخنرانی او همان عبارتی بود که از زمان ترک گوگل در سال ۲۰۲۳ تقریباً بهطور انحصاری از آن استفاده کرده است: «آیا هوش دیجیتال جایگزین هوش زیستی خواهد شد؟» او بار دیگر تأکید کرد که هوش مصنوعی ممکن است بهزودی از انسان پیشی بگیرد و بقای ما را تهدید کند.
دانشمندان و سیاستگذاران از چین، ایالات متحده، کشورهای اروپایی و دیگر نقاط جهان، در واکنش به سخنان او سر تکان دادند. با این حال، این اجماع ظاهری، یک پارادوکس عمیق در مدیریت هوش مصنوعی را پنهان میکند. کنفرانس به کنفرانس، برجستهترین ذهنهای جهان خطرات مشترک را شناسایی میکنند، خواستار همکاری میشوند، اعلامیهها را امضا میکنند و سپس شاهد بازگشت جهان به رقابت شدید در لحظه پایان پنلها هستند.
این پارادوکس سالها ذهن مرا مشغول کرده بود. من به علم اعتماد دارم، اما اگر تهدید واقعاً وجودی است، چرا حتی بقای بشر نمیتواند ما را متحد کند؟ اخیراً دریافتم که احتمالاً دلیل این است: هشدارهای مربوط به خطر هوش مصنوعی در تقویت همکاری بینالمللی شکست میخورند، زیرا تعریف خطر خود به عرصه جدیدی برای رقابت بینالمللی تبدیل شده است.
به طور سنتی، مدیریت فناوری از یک زنجیره علت و معلولی روشن پیروی میکند: شناسایی خطرات خاص و سپس توسعه راهحلهای مدیریتی. سلاحهای هستهای خطرات عینی دارند: قدرت انفجار، تشعشعات، بارش رادیواکتیو. تغییرات اقلیمی شاخصهای قابل اندازهگیری و اجماع علمی فزایندهای ارائه میدهد. اما هوش مصنوعی یک بوم خالی است؛ هیچکس نمیتواند همه را متقاعد کند که بزرگترین خطر آن چیست: بیکاری گسترده، تبعیض الگوریتمی، تصاحب ابرهوشمند یا تهدیدی کاملاً ناشناخته.
این عدم قطعیت، ارزیابی ریسک هوش مصنوعی را از تحقیقات علمی به یک بازی استراتژیک تبدیل کرده است. ایالات متحده بر «خطرات وجودی» مدلهای پیشرفته تأکید میکند و این چارچوب، غولهای فناوری آمریکایی را هم به عنوان منابع خطر و هم به عنوان شرکای ضروری در کنترل قرار میدهد. اروپا بر «هوش مصنوعی قابل اعتماد» و «اخلاق» تمرکز میکند و چین از ایده «ایمنی هوش مصنوعی به عنوان یک کالای عمومی جهانی» حمایت میکند و استدلال میکند که مدیریت ریسک باید در خدمت منافع مشترک بشریت باشد و نه در انحصار چند کشور.
شرکتها نیز در شکلدهی روایتهای ریسک مهارت دارند. OpenAI بر «همسویی با اهداف انسانی» تأکید میکند. شرکت Anthropic رویکرد «هوش مصنوعی قانونمند» را در حوزههایی ترویج میکند که مدعی داشتن تخصص ویژه در آنهاست و سایر شرکتها استانداردهای ایمنی را طوری انتخاب میکنند که به نفع خودشان باشد و رقبایی که رعایت نمیکنند را به عنوان خطر معرفی میکنند. دانشمندان، فیلسوفان و اقتصاددانان نیز از طریق روایتهای خطر، ارزش خود را شکل میدهند.
زنجیره علت و معلولی ایمنی هوش مصنوعی به این ترتیب وارونه شده است: ابتدا روایتهایی از خطر میسازیم و سپس تهدیدهای فنی را استنتاج میکنیم؛ ابتدا چارچوبهای حکمرانی طراحی میکنیم و بعد مسائلی را تعریف میکنیم که نیازمند حکمرانی هستند. در واقع، تعریف مسئله است که رابطه علت و معلول را شکل میدهد.
چگونگی تعریف «هوش مصنوعی عمومی»، تعیین کاربردهایی که «ریسک غیرقابل قبول» محسوب میشوند و تعریف «هوش مصنوعی مسئول» مستقیماً مسیرهای فناوری آینده، مزایای رقابتی صنعتی، ساختارهای بازار بینالمللی و حتی نظم جهانی را شکل میدهد.
این بدان معنا نیست که همکاری در زمینه ایمنی هوش مصنوعی بیفایده است؛ برعکس، درک قواعد بازی مشارکت بهتر را ممکن میسازد. ریسک هوش مصنوعی ساخته شده است و سیاستگذاران باید هم دستور کار خود را پیش ببرند و هم نگرانیهای واقعی دیگران را درک کنند.
تصدیق این ساختگی بودن ریسک به معنای انکار واقعیت نیست: تحقیقات فنی قوی، مکانیسمهای احتمالی و اقدامات حفاظتی همچنان ضروری هستند. برای کسبوکارها، این به معنای در نظر گرفتن ذینفعان متعدد و اجتناب از تفکر «برنده همه چیز را میبرد» است.
همکاری بینالمللی همچنان ضروری است، اما باید ماهیت و امکانات آن بازنگری شود. به جای دنبال کردن یک چارچوب واحد مدیریت ریسک هوش مصنوعی، باید کثرت ادراکات ریسک پذیرفته و مدیریت شود. جامعه بینالمللی به «آزمایشگاههای مدیریت رقابتی» نیاز دارد که در آن مدلهای مختلف مدیریت ارزش خود را در عمل اثبات کنند. این مدیریت چندمحوری ممکن است سست به نظر برسد، اما از طریق یادگیری متقابل و کنترل و توازن میتواند به هماهنگی سطح بالاتر برسد.
ما معمولاً هوش مصنوعی را به عنوان فناوری دیگری که نیاز به مدیریت دارد میبینیم، بدون آنکه متوجه شویم معنای خود «مدیریت» در حال تغییر است. رقابت برای تعریف ریسک هوش مصنوعی شکست حکومت جهانی نیست، بلکه تکامل ضروری آن است: فرآیندی جمعی برای مقابله با عدم قطعیتهای فناوری تحولآفرین