نکته مهم: خودروهای خودران هم باید اخلاق داشته باشند!!
اگر روزی استفاده از ماشین های خودران گسترده شود باید بدانیم که این هوش مصنوعی هم نیاز به اخلاقیات دارد

بحران تصمیم‌گیری در شرایط سخت برای خودروهای خودران

شاید برایتان سوال باشد که آیا یک ماشین خودران هم نیاز به اخلاق دارد؟ جواب این سوال مثبت است، اخلاق گستره وسیعی از تصمیم‌گیری‌ها است، تصمیم‌گیری در مواقع سخت، برای حفظ جان خودمان یا دیگران .اما یک ماشین خودران چطور این تصمیم را می‌گیرد.

برای درک بهتر موضوع خانواده‌ای را تصور کنید که برای گذارندن تعطیلات در حال سفر با ماشین داخل یک جاده هستند. آفتاب مدتی است غروب کرده و پدر خانواده در حال رانندگی است در حالی که همسر و فرزندش روی صندلی کناری و عقب در خواب هستند. ناگهان یک ماشین از ناکجا ظاهر می شود که به سمت آن‌ها می‌آید و زمانی که پدر آن را می‌بیند بسیار دیر شده است. او برای چند لحظه بسیار کوتاه بر سر یک دوراهی گیر می‌کند و سپس به سختی ترمز کرده و به سمت راست می‌پیچید تا از تصادف جلوگیری کند، او در جا جانش را از دست می‌دهد، اما همسر و فرزندش جان سالم به در می‌برند.

امیدواریم که این سناریوی فرضی هیچ‌گاه برای ما رخ ندهد، اما هر راننده‌ای ممکن است روزی مجبور به انتخاب بین مرگ و زندگی در زمانی کوتاه شود. این تصمیم از منطق، واکنش و یک تعادل ظریف بین نوع دوستی و خودخواهی تشکیل شده که در همه ما وجود دارد. برای همسر و فرزند پدرخانواده ما، او به طور قطع یک قهرمان خواهد بود،هرچند در نهایت چیزی بیشتر از یک انسان نیست. حالا اما ما در نقطه‌ای ایستاده‌ایم که چنین تصمیم گیری‌هایی در حال واگذاری به ماشین‌ها است، در چنین حالتی مقدم بر پیچید‌گی‌های فنی، سوال اساسی این است که چطور چنین اخلاقیاتی را به این ماشین‌ها یاد بدهیم. برای ماشین تفاوتی بین جان پدر، مادر و فرزند وجود ندارد و آیا باید وجود داشته باشد؟ او چطور می‌تواند بین جان آن‌ها یا حتی انبوهی از رهگذاران یا چند رهگذر، یکی را انتخاب کند؟

حتما مثال مشهور قطار را شنیده‌اید؛ شما سوزنبان ریلی هستید و یک قطار ترمز بریده در حال نزدیک شدن به نقطه تغییر مسیر است. اگر قطار به راهش ادامه دهد، 5 نفر را خواهد کشت و اگر شما مسیر را عوض کنید، 2 نفر می‌میرند. تصمیم شما چه خواهد بود؟

بسیاری بدون تردید می‌گویند، جان 5 نفر به جان 2 نفر ارجحیت دارد، اما موضوع به این سادگی‌ها نیست. اگر یکی از آن دو نفر دانشمند بسیار مهمی باشد که در آستانه یک کشف مهم قرار داشته باشد چطور؟ کشفی که می‌تواند جان هزاران نفر را حفظ کند.

می‌بینید که این تصمیم‌گیری‌های اخلاقی همیشه برای خود ما هم ساده نیستند و جواب مشخصی ندارند. حال ما چطور باید به ماشین‌ها چیزی را یاد بدهیم که خودمان هم جواب درستی برایش نداریم.

قوانین آسیموف

ایلان ماسک کارآفرین آمریکایی وصاحب شرکت‌هایی که در زمینه هوش مصنوعی هم کار می‌کنند، زمانی در توییترش نوشت:« این ماشین‌ها می‌توانند از بمب اتمی هم خطرناک‌تر باشند». منظور از ماشین البته هوش مصنوعی منهای اخلاقیات است. سال‌ها پیش از این، آیزاک آسیموف نویسنده مشهور رمان‌های علمی و تخیلی با تدوین قوانینی برای ربات‌های داستانش، کدهایی اخلاقی در این زمینه به وجود آورد، که حتی گاهی در صنعت هم رعایت می‌شوند. قوانین آسیموف می‌گویند؛

0- یک ربات نباید به بشریت آسیب بزند.

1-یک ربات نباید با ارتکاب عملی یا خودداری از انجام عملی باعث آسیب‌دیدن یک انسان شود مگر اینکه قانون صفرم نقض شود.

2-یک ربات باید از فرمانهای انسان‌ها تبعیت کند مگر اینکه آن فرمانها در تعارض با قانون نخست باشد.

3-تا هنگامی که قانون صفرم یا نخست یا دوم زیرپا گذاشته نشده‌است ربات باید وجود خود را حفظ کرده و در بقای خود بکوشد.

اما آیا این قوانین برای هوش مصنوعی مدرن و جدید و شرایط پیچیده کفایت می‌کنند. مثلا اگر ربات یا همان هوش مصنوعی مجبور به انتخاب بین جان دو فرد مختلف شود و برای این کار دست به انتخابی بزند که باعث آسیب به یک انسان دیگر شود چطور؟

به نظر می‌رسد، این قوانین ناکافی هستند و نوعی اخلاقیات برای هوش مصنوعی ضروری است. شاید در نگاه نخست هدف بسیار ساده باشد. همه حالت‌های ممکن را برای هوش مصنوعی برنامه‌ریزی‌ کنید و انتخاب‌ها را هم مشخص کنید. مثلا به ربات یاد بدهید که حفظ جان یک زن باردار در ماشین مقدم به حفظ جان بقیه است. اما خب اگر کار به انتخاب بین جان دو بچه بکشد چطور؟ شاید مثلا این‌که احتمال نجات کدامیک بیشتر است قانون خوبی باشد اما اگر تفاوتی در کار نبود چطور؟

پس میبینیم ماجرا به این سادگی‌ها هم نیست و ماجرای ماشین‌های با اخلاق داستانی است که به تازگی آغاز شده و تا حل مسئله زمان زیادی باقی مانده. تنها آن‌چه مسلم است، این است که علاوه بر هوش مصنوعی ما نیازمند نوعی اخلاق در ماشین‌های خودران هستیم.



گردآوری:گروه سرگرمی سیمرغ
seemorgh.com/entertainment
منبع: sinapress.ir