هوش مصنوعی چگونه برای انسان خطرناک می شود؟
هوش مصنوعی و کاربردهای متعددی دارد اما این پیشرفت علمی خطرات زیادی را برای بشر بوجود خواهد آورد

سایه ترسناک هوش مصنوعی بر آینده بشریت

بسیاری از کارشناسان به هوش مصنوعی به‌عنوان یک عامل اصلی تهدیدکننده جهان، نگریسته و آن را خطری جدی برای بشریت می‌دانند. استیو لوین (Steve LeVine)، دبیر وب‌سایت علمی Axios Future، در این رابطه توضیح می‌دهد که چگونه هوش مصنوعی می‌تواند برای آینده بشریت خطرناک باشد.

به اعتقاد وی در حال حاضر یک جنگ تسلیحاتی تمام‌عیار بین ایالات‌متحده آمریکا و چین در حوزه هوش مصنوعی در جریان است. دستگاه‌های امنیتی و سیاسی در هر دو کشور، به پیشرفت و استیلا بر هوش مصنوعی به‌عنوان یک ضرورت اقتصادی و نظامی آینده خود می‌نگرند.

دلیل این موضوع نیز ماهیت و طبیعت هوش مصنوعی است که آینده آن مملو از ابهاماتی جدی در رابطه با تولید سلاح‌های قدرتمند و یا کاربرد این فناوری در صنایع است. زمانی که یک کشور به فناوری ماشین‌های هوشمندی که مانند انسان فکر می‌کنند، دست پیدا کند، توانایی رقابت بالایی یافته و به‌نوعی بقای خود را تضمین می‌کند.

در حال حاضر کشور چین به‌طور رسمی، این هدف را به‌عنوان استراتژی آینده خود معرفی کرده و قصد دارد مبالغ هنگفتی در این حوزه سرمایه‌گذاری کند. ایالات‌متحده امریکا نیز در حال برداشتن گام‌هایی جدی در حوزه پیشرفت هوش مصنوعی بوده و برای دستیابی به این هدف به توانایی بخش خصوصی و صنایع غیردولتی خود چشم دارد. این بخش به‌طور خاص در سیلیکون ولی مستقر بوده و شامل شرکت‌هایی بزرگ مانند گوگل و مایکروسافت می‌شود.

بر اساس تعریف دانشمندان، هوش مصنوعی عبارت است از مجموعه‌ای از ماشین‌های پیشرفته و دارای هوش که به‌طور بالقوه می‌توانند جایگزین انسان‌ها در تمامی کارها شوند. این امر باعث می‌شود که انسان از انجام کارهای روزمره معاف شود باید در نظر داشت که موضوع به همین سادگی نیست و در صورت تحقق این مسئله، بسیاری از بنیادهای اجتماعی دچار یک تحول و دگرگونی شدید شده و ممکن است زندگی برای انسان تبدیل به یک جهنم بی‌هدف و آزاردهنده شود.

بسیاری از کارشناسان اعتقاددارند افزایش استفاده از این فناوری همراه با افزایش مشکلات قانونی مرتبط با این حوزه است. آیا هوش مصنوعی به‌عنوان یک موجود آگاه و مسئول در برابر قانون شناخته‌شده و اگر به کسی آسیب رسانده و یا خسارتی وارد کند، چه کسی و به چه صورتی مسئولیت آن را بر عهده خواهد گرفت؟

برای فکر کردن به این موضوع، گزینه‌های زیاد و حتی سناریوهای ترسناک‌تری نیز وجود دارد، ممکن است این ماشین‌ها علیه انسان‌ها شورش کرده و بخواهند ما را به‌طور کامل از بین ببرند؟ یک استاد مهندسی برق و علوم رایانه‌ای که در یادگیری ماشین و نظریه کوانتوم فعالیت می‌کند، اعتقاد دارد که این ماشین‌ها به‌طور فعال در آینده زندگی انسان حضور خواهند داشت.

از سوی دیگر بسیاری از دانشمندان علوم کامپیوتر باور دارند که هوشیاری افزایش هوش کامپیوتری با پیشرفت تکنولوژی و فناوری‌های این حوزه رشد خواهد کرد و برخی دیگر از پژوهشگران نیز اعتقاددارند که این آگاهی به‌صورت دریافت اطلاعات جدید و ذخیره و بازیابی اطلاعات قدیمی و پردازش کامل و مناسب از آن‌ها خواهد بود.

به این صورت ماشین‌های دارای هوش مصنوعی تبدیل به موجوداتی ترسناک می‌شوند که اطلاعات بسیار بیشتری از انسان را در حافظه خود ذخیره می‌کنند که هیچ‌گاه فراموش نشده و قادر هستند در کسری از ثانیه تحلیل و تصمیم‌گیری کنند، تصمیم‌گیری‌هایی کاملاً بر اساس منطق و به‌دوراز احساسات انسانی.

برخی از فیزیکدانان و فیلسوفان در رابطه با موضوع فوق می‌گویند که ویژگی‌هایی در مورد رفتار انسان وجود دارد که نمی‌تواند توسط یک ماشین محاسبه شود. بااین‌حال، این موارد تنها دیدگاه‌هایی است که درباره هشدار نسبت به ماشین‌های هوش مصنوعی ارائه‌شده است و ممکن است بتوان موارد بیشتری را نیز به آن اضافه کرد.

در این میان اما ایلان ماسک بنیان‌گذار شرکت‌های پیشرو و مشهوری همچون تسلا موتورز و اسپیس ایکس چندی پیش اعلام کرد خطرات فعلی جهان از قبیل خطر کره شمالی و جنگ هسته‌ای از سوی این کشور برای بشریت بسیار کمتر از خطری است که مردم را از سمت هوش مصنوعی تهدید می‌کند.

وی که این پیام را از طریق توییتر منتشر کرده بود، در توضیح مسئله فوق افزود: «اگر تاکنون درباره هوش مصنوعی و امنیت حوزه مربوط به توسعه و استفاده از آن نگران نبوده‌اید، وقت آن است که احساس نگرانی کنید. خطر هوش مصنوعی و گسترش آن به‌مراتب تهدیدکننده‌تر و مهم‌تر از خطر کره شمالی است.» وی در این توئیت از یک عکس نیز استفاده کرده بود که روی آن عبارتی با مضمون «در پایان، ماشین‌ها پیروز خواهند شد.» درج‌شده بود.

هدف ایلان ماسک از ارائه پیام فوق، اشاره به رشد و توسعه هوش مصنوعی و پیروز شدن نهائی این فناوری بر بشریت است.



گردآوری:گروه سرگرمی سیمرغ
seemorgh.com/entertainment
منبع: sinapress.ir