بزرگترین خطر هوش مصنوعی چیست؟

مباحث مربوط به حکمرانی هوش مصنوعی در حال حاضر به‌طور عمده حول محور «ریسک» می‌چرخد. در ماه جولای امسال، جفری هینتون، برنده جایزه نوبل و تورینگ، در «کنفرانس جهانی هوش مصنوعی» در شانگهای سخنرانی کرد. عنوان سخنرانی او همان عبارتی بود که از زمان ترک گوگل در سال ۲۰۲۳ تقریباً به‌طور انحصاری از آن استفاده کرده است: «آیا هوش دیجیتال جایگزین هوش زیستی خواهد شد؟» او بار دیگر تأکید کرد که هوش مصنوعی ممکن است به‌زودی از انسان پیشی بگیرد و بقای ما را تهدید کند.

دانشمندان و سیاست‌گذاران از چین، ایالات متحده، کشورهای اروپایی و دیگر نقاط جهان، در واکنش به سخنان او سر تکان دادند. با این حال، این اجماع ظاهری، یک پارادوکس عمیق در مدیریت هوش مصنوعی را پنهان می‌کند. کنفرانس به کنفرانس، برجسته‌ترین ذهن‌های جهان خطرات مشترک را شناسایی می‌کنند، خواستار همکاری می‌شوند، اعلامیه‌ها را امضا می‌کنند و سپس شاهد بازگشت جهان به رقابت شدید در لحظه پایان پنل‌ها هستند.

این پارادوکس سال‌ها ذهن مرا مشغول کرده بود. من به علم اعتماد دارم، اما اگر تهدید واقعاً وجودی است، چرا حتی بقای بشر نمی‌تواند ما را متحد کند؟ اخیراً دریافتم که احتمالاً دلیل این است: هشدارهای مربوط به خطر هوش مصنوعی در تقویت همکاری بین‌المللی شکست می‌خورند، زیرا تعریف خطر خود به عرصه جدیدی برای رقابت بین‌المللی تبدیل شده است.

به طور سنتی، مدیریت فناوری از یک زنجیره علت و معلولی روشن پیروی می‌کند: شناسایی خطرات خاص و سپس توسعه راه‌حل‌های مدیریتی. سلاح‌های هسته‌ای خطرات عینی دارند: قدرت انفجار، تشعشعات، بارش رادیواکتیو. تغییرات اقلیمی شاخص‌های قابل اندازه‌گیری و اجماع علمی فزاینده‌ای ارائه می‌دهد. اما هوش مصنوعی یک بوم خالی است؛ هیچ‌کس نمی‌تواند همه را متقاعد کند که بزرگ‌ترین خطر آن چیست: بیکاری گسترده، تبعیض الگوریتمی، تصاحب ابرهوشمند یا تهدیدی کاملاً ناشناخته.

این عدم قطعیت، ارزیابی ریسک هوش مصنوعی را از تحقیقات علمی به یک بازی استراتژیک تبدیل کرده است. ایالات متحده بر «خطرات وجودی» مدل‌های پیشرفته تأکید می‌کند و این چارچوب، غول‌های فناوری آمریکایی را هم به عنوان منابع خطر و هم به عنوان شرکای ضروری در کنترل قرار می‌دهد. اروپا بر «هوش مصنوعی قابل اعتماد» و «اخلاق» تمرکز می‌کند و چین از ایده «ایمنی هوش مصنوعی به عنوان یک کالای عمومی جهانی» حمایت می‌کند و استدلال می‌کند که مدیریت ریسک باید در خدمت منافع مشترک بشریت باشد و نه در انحصار چند کشور.

شرکت‌ها نیز در شکل‌دهی روایت‌های ریسک مهارت دارند. OpenAI بر «همسویی با اهداف انسانی» تأکید می‌کند. شرکت Anthropic رویکرد «هوش مصنوعی قانون‌مند» را در حوزه‌هایی ترویج می‌کند که مدعی داشتن تخصص ویژه در آنهاست و سایر شرکت‌ها استانداردهای ایمنی را طوری انتخاب می‌کنند که به نفع خودشان باشد و رقبایی که رعایت نمی‌کنند را به عنوان خطر معرفی می‌کنند. دانشمندان، فیلسوفان و اقتصاددانان نیز از طریق روایت‌های خطر، ارزش خود را شکل می‌دهند.

زنجیره علت و معلولی ایمنی هوش مصنوعی به این ترتیب وارونه شده است: ابتدا روایت‌هایی از خطر می‌سازیم و سپس تهدیدهای فنی را استنتاج می‌کنیم؛ ابتدا چارچوب‌های حکمرانی طراحی می‌کنیم و بعد مسائلی را تعریف می‌کنیم که نیازمند حکمرانی هستند. در واقع، تعریف مسئله است که رابطه علت و معلول را شکل می‌دهد.

چگونگی تعریف «هوش مصنوعی عمومی»، تعیین کاربردهایی که «ریسک غیرقابل قبول» محسوب می‌شوند و تعریف «هوش مصنوعی مسئول» مستقیماً مسیرهای فناوری آینده، مزایای رقابتی صنعتی، ساختارهای بازار بین‌المللی و حتی نظم جهانی را شکل می‌دهد.

این بدان معنا نیست که همکاری در زمینه ایمنی هوش مصنوعی بی‌فایده است؛ برعکس، درک قواعد بازی مشارکت بهتر را ممکن می‌سازد. ریسک هوش مصنوعی ساخته شده است و سیاست‌گذاران باید هم دستور کار خود را پیش ببرند و هم نگرانی‌های واقعی دیگران را درک کنند.

تصدیق این ساختگی بودن ریسک به معنای انکار واقعیت نیست: تحقیقات فنی قوی، مکانیسم‌های احتمالی و اقدامات حفاظتی همچنان ضروری هستند. برای کسب‌وکارها، این به معنای در نظر گرفتن ذینفعان متعدد و اجتناب از تفکر «برنده همه چیز را می‌برد» است.

همکاری بین‌المللی همچنان ضروری است، اما باید ماهیت و امکانات آن بازنگری شود. به جای دنبال کردن یک چارچوب واحد مدیریت ریسک هوش مصنوعی، باید کثرت ادراکات ریسک پذیرفته و مدیریت شود. جامعه بین‌المللی به «آزمایشگاه‌های مدیریت رقابتی» نیاز دارد که در آن مدل‌های مختلف مدیریت ارزش خود را در عمل اثبات کنند. این مدیریت چندمحوری ممکن است سست به نظر برسد، اما از طریق یادگیری متقابل و کنترل و توازن می‌تواند به هماهنگی سطح بالاتر برسد.

ما معمولاً هوش مصنوعی را به عنوان فناوری دیگری که نیاز به مدیریت دارد می‌بینیم، بدون آنکه متوجه شویم معنای خود «مدیریت» در حال تغییر است. رقابت برای تعریف ریسک هوش مصنوعی شکست حکومت جهانی نیست، بلکه تکامل ضروری آن است: فرآیندی جمعی برای مقابله با عدم قطعیت‌های فناوری تحول‌آفرین

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا