هشدار درمورد کاربردهای نظامی هوش مصنوعی

هوش مصنوعی

به نقل ازصدانیوز ، در نامه‌ای که توسط موسسه‌ی Future of Life Institute منتشر شده است، ۲۴۰۰ پژوهشگر و بیش از ۱۰۰ سازمان فناوری از سراسر جهان خواستار ممنوعیت جهانی سلاح‌های خودکار یا خودران (اشاره به تانک‌ها و هواپیماها و سایر تجهیزات بدون سرنشین) مرگبار شده‌اند. آنها متعهد شده‌اند که هیچگاه چنین سلاح‌ها و تجهیزاتی […]

به نقل ازصدانیوز ، در نامه‌ای که توسط موسسه‌ی Future of Life Institute منتشر شده است، ۲۴۰۰ پژوهشگر و بیش از ۱۰۰ سازمان فناوری از سراسر جهان خواستار ممنوعیت جهانی سلاح‌های خودکار یا خودران (اشاره به تانک‌ها و هواپیماها و سایر تجهیزات بدون سرنشین) مرگبار شده‌اند. آنها متعهد شده‌اند که هیچگاه چنین سلاح‌ها و تجهیزاتی را تولید نکنند.

در این نامه می‌خوانیم:

ما، امضاکنندگان این درخواست، از رهبران دولت‌ها و سیاستمداران می‌خواهیم برای ایجاد آینده‌ای با استانداردهای بین‌المللی، مقررات و قوانین روشن علیه سلاح‌های خودکار تلاش کنند. چنین سازوکارهایی در حال حاضر وجود ندارند. ما تصمیم داریم خود را به یک استاندارد جامع برسانیم: ما در تولید، تجارت یا در استفاده از سلاح‌های خودکار مرگبار، نه مشارکت می‌کنیم و نه از روندهای مربوط به آن پشتیبانی خواهیم کرد. ما از شرکت‌ها و سازمان‌های فناوری و همچنین رهبران، سیاستگذاران و دیگر افراد می‌خواهیم که در این تعهد شرکت کنند.

امضا کنندگان نامه‌ی فوق، شامل افرادی همچون ایلان ماسک، سه بنیانگذار دیپ‌مایند به‌نام‌های شین لگ، مصطفی سلیمان و دمیس هسابیس، معاون اسکایپ  جائه تالین و برخی از پژوهشگران پیشرو در عرصه‌ی هوش مصنوعی در جهان مانند استوارت راسل، یوشو بنگیو و یورگن شیمیدوبر هستند. دیپ‌مایند گوگل، بنیاد XPRIZE وClearpath Robotics نیز برخی از شرکت‌های فناوری بودند که نامشان در لیست امضاکنندگان بیانیه‌ی فوق آمده است.

تسلیحات خودکار هوش مصنوعی

این وبسایت همچنین اشاره کرده است که که ۲۶ کشور عضو سازمان ملل متحد نیز، ممنوعیت سلاح‌های کشنده خودکار را مورد تایید قرار داده‌اند. این کشورها عبارتند از: الجزایر، آرژانتین، اتریش، بولیوی، برزیل، شیلی، چین، کلمبیا، کاستاریکا، کوبا، جیبوتی، اکوادور، مصر، غنا ، گواتمالا، سریر مقدس، عراق، مکزیک، نیکاراگوئه، پاکستان، پاناما، پرو، فلسطین، اوگاندا، ونزوئلا و زیمبابوه.

این نامه در کنفرانس مشترک بین‌المللی هوش مصنوعی IJCAI 2018 که توسط مؤسسه‌ی Future of Life برگزار شده بود، منتشر شد. اگر چه این موسسه پیش از این هم به تهیه و امضا شدن نامه‌های اینچنینی کمک کرده است؛ اما این اولین باری است که افراد متعهد در بیانیه، به‌طور جداگانه اعلام کرده‌اند که برای توسعه‌ و ساخت سلاح‌های خودکار مرگبار اقدام نخواهند کرد.

این حرکت در زمانی رخ می‌دهد که شرکت‌های پیشرو در زمینه‌ی فناوری هوش مصنوعی، در معرض یک معضل داخلی پیرامون توسعه‌ی هوش مصنوعی و گسترش آن برای استفاده‌ی نظامی‌ هستند.

در ماه مه سال جاری میلادی، ۱۲ کارمند گوگل، این شرکت را به‌دلیل مشارکت در پروژه‌ی Maven ارتش آمریکا ترک کردند. گفتنی است که پروژه‌ی Maven به برنامه‌ی هواپیماهای مبتنی بر هوش مصنوعی پنتاگون اطلاق می‌شود. تقریبا ۴ هزار کارمند دیگر گوگل نیز در آن مقطع درخواست‌نامه‌ای را امضا کرده‌ و از کمپانی گوگل خواستند که همکاری با این پروژه را متوقف سازد.

هواپیماهای بدون سرنشین

نامه‌ی فعلی منتشرشده در استکهلم، اولین نامه‌ای نیست که در زمینه‌ی استفاده‌ی تسلیحاتی از هوش مصنوعی و پیامدهای ناگوار آن منتشر شده باشد. در ماه سپتامبر سال گذشته‌ی میلادی، بیش از ۱۰۰ مدیر عامل شرکت‌های هوش مصنوعی و رباتیک در سراسر جهان، یک نامه‌ی سرگشاده خطاب به سازمان ملل متحد تنظیم کردند. آنها در نامه‌ی خود هشدار داده بودند که از فناوری موجود در زمینه‌ی کاری‌شان، می‌توان برای ساخت ربات‌های قاتل هم استفاده کرد و باید برای این مسئله، چاره‌ای اندیشیده شود.

با وجود هشدارهای فراوان اینچنینی، هنوز روند رو‌به‌رشد عملیات‌های نظامی‌ با استفاده از سلاح‌های خودکار (و خودران) وجود دارد. در ماه ژانویه‌ی سال ۲۰۱۸ میلادی، واشنگتن پست گزارش داد که حدود ۱۳ فروند هواپیماهای بدون سرنشین مسلح از یک مکان ناشناخته به پرواز درآمده و به ستاد عملیات نظامی‌ روسیه در سوریه حمله کردند.

هند همچنین علاقه‌ی خود را به توسعه‌ی یک برنامه‌ی نظامی‌ متمرکز بر هوش مصنوعی در طی DefExpo 2018 در ماه آوریل نشان داد. به‌گزارش نشریه‌ی Times of India، آجی کومار، وزیر تولیدات دفاعی این کشور، اظهار کرده که دولت هندوستان آژانسی برای پیگیری این طرح‌ها تاسیس کرده و نقشه‌ی راهی را برای ساخت سلاح‌های مبتنی بر هوش مصنوعی تدارک دیده‌اند.

حتی اگر برخی شرکت‌ها هم خواستار ممنوعیت استفاده از هوش مصنوعی برای کاربردهای تسلیحاتی باشند، هوش مصنوعی باز هم به پیشرفت‌های خود در همه‌ی ابعاد ادامه می‌دهد. این را هم می‌دانیم که تحت هر شرایطی همیشه چند سیب گندیده می‌تواند در یک جعبه‌ی سیب سالم وجود داشته باشد. با استناد به همین گفته‌ی مشهور، می‌توانیم مطمئن باشیم که افرادی هم وجود خواهند داشت که با استفاده از هوش مصنوعی به گسترش جنگ‌افزارها کمک کنند. این وضعیت تا حدودی با جو موجود پیرامون سلاح‌های شیمیایی متفاوت است.

با در نظر گرفتن همه‌ی مواردی که اشاره کردیم، ممنوعیت ساخت و کاربرد سلاح‌های پیشرفته در مراحل اولیه‌ی توسعه و در زمانی که تنها چند کشور قادر به ساخت آنها هستند، آسان‌تر می‌نماید. امیدواریم که ابتکاراتی مانند نامه‌ی اخیر، به دولت‌ها و سازمان‌های جهانی کمک کند تا به مسائل مربوط به سلاح‌های کشتار جمعی به‌طور جدی‌تر و بهتری بپردازند. زیرا نیاز به نظارت و قانون‌گذاری‌های جدید در سراسر جهان روزبه‌روز بیشتر می‌شود.


ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید