LOADING
June 6, 2021 Leave your thoughts

آداب معاشرت با هوش مصنوعی چه جوری خواهد بود؟

آینده ی نه چندان دوری رو تصور کنید که توی خیابون اصلی شلوغی دارید رانندگی میکنید و یک ماشین خودران (که با هوش مصنوعی کنترل میشه) میاد که از خیابون فرعی وارد اصلی بشه. ماشین یه تاکسی خالیه که داره میره جایی کسی رو سوار کنه (کسی تو ماشین نیست که باهاش چشم تو چشم بشین) و مترصده که یک جوانمرد پیدا بشه و بهش راه بده که بیاد تو اصلی. تو همچین موقعیتی شما چه کار میکنید؟ یواش میکنید که اون ام بیاد تو؟ یا برعکس گازشو میگیرید با توپ پر میرید جلو که حساب کار خودشو بکنه و عقب وایسه؟

دیر یا زود ماشین های خودران و واریاسیون های دیگه هوش مصنوعی خودکار وارد زندگی روزمره ما میشن و تو رانندگی, سوپرمارکت, بیمارستان و جاهای دیگه به شکل های جدیدی با ما تعامل میکنند. یک سوالی که در تحقیقات پرسرعت و پرهیجان تولید هوش مصنوعی بهتر و باهوش تر غالبا فراموش میشه اینه که رفتار ما آدمها با این موجودات هوشمند جدیدی که قراره وارد زندگی ما بشن چطور خواهد بود ؟ از اونجایی که “احترام هر کسی دست خودشه“, جواب این سؤال برای پیش بینی رفتار هوش مصنوعی با ما مهم خواهد بود

برای اینکه اهمیت این سؤال رو متوجه بشین دقت کنید که تا الان, رابطه ما با هوش مصنوعی به ۲ شکل برامون تعریف شده:
(۱) رقیب: مثل دیپ بلو برای گری کاسپاروف و ترمیناتور برای سارا کانر
(۲) نوکر: مثل گوگل ترانسلیت برای کاربر اینترنت یا روبات آرتو-دی توی جنگ ستارگان برای لوک
ولی همونطوری که شکل ۱ نشون میده, تصور موجود هوشمندی که خود ما ساخته باشیم که به مثابه یک همشهری و با حقوق مساوی با ما, مستقلا تصمیم بگیره و عمل بکنه برای ما جدیده. در مواجهه با همچین همشهری, ادب چی حکم میکنه؟ هنجارها(norm)ی اجتماعی حاکم بر روابط آدم ها تا چه حد قابل تعمیم به رابطه ما با روبات های هوشمند خواهد بود؟

شکل یک – رابطه جدید بین انسان و هوش مصنوعی

برای جواب به این سؤال, گروه ما در ۲ سال گذشته ۹ آزمایش و نظرسنجی انجام داده که در مقاله ای هفته پیش منتشر شد و روزنامه نیویورک تایمز هم امروز در مورد مقاله ما گزارشی داده که میتونید اینجا بخونید.

ما در این آزمایش ها, هر شرکت کننده رو با یک پارتنر طرف حساب قرار دادیم. به نصف شرکت کننده ها گفتیم که طرف حساب شون یک آدمیه مثل خودشون که از یه جای دنیا به اینترنت وصل شده و تو آزمایش شرکت کرده. به نصف دیگه ی شرکت کننده ها گفتیم که با یه روبوت هوشمند طرف هستند که برای خودش فکر میکنه و مستقلا تصمیم میگیره. هر کدوم از این گروه های ۲نفری یک بازی اقتصادی کلاسیک از نظریه بازیها (معمای زندانی, جوجه, اعتماد, شکار گوزن) رو فقط یک دور (دقیقا فقط یک دور) انجام دادند. این چهار بازی رو به این دلیل انتخاب کردیم که این بازی ها Zero Sum Game یا بازی برد-باخت (مثل شطرنج و Go) نیستند و نتیجه ی بازی بستگی به همکاری و اعتماد دو نفر به هم دیگه داره.

شکل ۲

برای مثال در بازی معمای زندانی, هر یک از ۲ نفر جداگانه تصمیم میگیرد که به طرف مقابل اعتماد کند یا خیانت کند (شکل ۲) .اگر هر دو بهم اعتماد کنند نفری ۷۰ امتیاز میگیرند. اگر یکی اعتماد کند و دیگری خیانت, اولی صفر و دومی ۱۰۰ امتیاز میگیرد. اگر هر دو خیانت کنند, هر کدام ۳۰ امتیاز میگیرند. آزمایشهای متعدد روانشناسی و اقتصادی نشان داده اند وقتی آدم ها معمای زندانی را با هم بازی میکنند, در اکثر موارد ۲ طرف به هم اعتماد میکنند حتی وقتی بازی فقط یک دور انجام میشود و دو طرف همدیگر را نمیشناسند و هیچ وقت هم با هم رودررو نخواهند شد. نتایج ما هم همین را نشان داد: شرکت کننده هایی که با پارتنر انسانی طرف حساب بودند اکثرا به طرف مقابل اعتماد کرده و خیانت نکردند.

یافته اصلی ما این بود که درصد قابل توجهی از شرکت کننده هایی که با AI طرف بودند خیانت کردند و حد اکثر امتیاز را به جیب زدند.

وقتی از شرکت کننده ها می پرسیدیم که “فکر میکنید که طرف مقابل به شما اعتماد بکند یا نه؟” دیدیم که انتظار شرکت کننده ها در مورد احتمال همکاری پارتنر انسانی و AI فرق خاصی با هم نداشت. این نکته برای تحلیل علت خیانت به AI خیلی مهم بود: نامردی شرکت کننده های ما در حق AI ناشی از بدبینی به قصد و نیت AI (مثلا تحت تاثیر کلیشه هایی مثل اودیسه فضایی ۲۰۰۱ و ترمیناتور) نبود. برعکس, علت این بود که خیانت به AI احساس گناه خاصی ایجاد نمیکرد و برای کسی مهم نبود که حال AI گرفته شود

در مجموع نتایج این مقاله و کارهای قبلی گروه ما که علی محمودی انجام داده تصویر جالبی از ارتباط اجتماعی انسان و AI در زندگی روزمره آینده به ما میدهند که پیش بینی میکنه که اداب معاشرت و چیزی که ما امروز به عنوان هنجارهای رفتار مودبانه میشناسیم در آینده نزدیک تغییرهای زیادی خواهند کرد

Leave a Reply

Your email address will not be published. Required fields are marked *