حتما شما هم هشدارهایی که از طرف بعضی از رهبران و مدیران ارشد در حوزهی صنعت رباتیک دربارهی هوش مصنوعی داده شده است را شنیدهاید. این افراد در مورد پتانسیل این فناوری نه برای پیشرفت بشر، بلکه آزار و حتی انقراض انسان هشدار دادهاند. پس با مجله اینترنتی فانیلی همراه شوید.
نیویورک تایمز میگوید: «بعضی از افراد هشدار میدهند که هوش مصنوعی میتواند به اندازهای قدرتمند شود که اگر کاری برای کاهش سرعت پیشرفت آن انجام نشود، ظرف چند سال اختلالهایی در مقیاس اجتماعی ایجاد کند. البته تا امروز محققان توضیحی دربارهی چگونگی وقوع آن ارائه ندادهاند.»
اخیرا گروهی از کارشناسان صنعت هشدار دادهاند که هوش مصنوعی میتواند موجودیت بشر را تهدید کند در نامهی سرگشادهی یک خطی که توسط سازمان غیر انتفاعی مرکز ایمنی هوش مصنوعی آمده است: «کاهش خطر انقراض انسان توسط هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مثل همهگیریها و جنگ هستهای قرار بگیرد.»
آلن تورینگ (Alan Mathison Turing) به عنوان پدر علوم کامپیوتر و هوش مصنوعی شناخته میشود و مهمترین جایزهی علمی در حوزهی کامپیوتر را به نام او، یعنی جایزهی تورینگ، نامگذاری کردهاند.
این بیانیه توسط بیش از ۳۵۰ مدیر، محقق و مهندس از بخش هوش مصنوعی مثل سام آلتمن مدیر اجرایی OpenAI و همچنین جفری هینتون و یوشوا بنجیو دو محقق برندهی جایزهی تورینگ امضا شده است. این پیام یک پیشگویی به حساب میآید اما جزئیات کافی دربارهی چگونگی وقوع آخرالزمان هوش مصنوعی ارائه نداده است.
دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، میگوید: «یکی از سناریوهای قابل قبول این است که هوش مصنوعی به دست افراد خطرناک برسد و از آن برای تولید سلاحهای زیستی جدید کشندهتر از همهگیریهای طبیعی استفاده کنند. یا به جای تولید سلاح، هوش مصنوعی را طوری جهتدهی کنند که با انجام فعالیتهای سرکشانهی مختلف به بشر آسیب برساند.»
هندریکس معتقد است اگر هوش مصـنوعی به میزان کافی هوشمند یا توانا باشد ممکن است خطر قابل توجهی برای جامعه ایجاد کند. یک خطر دیگر، استفادهی هکرهای برای از آن برای انجام فعالیتهای خرابکارانه است. اریک اشمیت، مدیر عامل سابق گوگل، در یکی از سخنرانیهایش گفت: «سناریوهایی در این مورد برای آینده وجود دارد که از هـوش مصنوعی در مسائل سایبری و همچنین زیستشناسی استفاده شود.»
اشمیت معتقد است این موضوع در حال حاضر دور از ذهن به نظر می رسد اما پیشرفت سریع هـوش مصنـوعی احتمال وقوع آن بیشتر خواهد شد. او میگوید: «ما از امروز باید برای روزی که این اتفاق پیش میآید آماده باشید تا بتوانیم با روشهایی مطمئن جلوی سواستفادهی افراد شرور را بگیریم.»
یک نگرانی دیگر در این مورد سرکش شدن خود به خودی هوش مـصنوعی است. تام چیورز، روزنامهنگار و نویسندهی علمی، در مصاحبهای گفته است: «هوش مـصنوعی که برای رهایی از سرطان ساخته شده میتواند یاد بگیرد موشکهای هستهای را برای از بین بردن همهی سلولهای سرطانی منفجر کند!»
او میگوید: «پس ترس این نیست که هوش مـصنوعی مخرب شود، بلکه ترس از توانمند شدن آن است. ابزارهای هوش مصـنوعی فقط به بالا بردن نتیجه فکر میکنند و همین موضوع آن را از چیزی که به آن انسانیت میگوییم دور کرده، احتمال بروز اشتباهات وحشتناک را بالا میبرد.»
با توجه به تمام این موضوعات، این روزها بحث راههای تنظیم و مهار هوش مصـنوعی بسیار داغ شده است. گروهی از کارشناسان هوش مصـنوعی، مدیران صنعت فناوری و دانشمندان پیشنهاد کردهاند جلوی رقابت برای توسعه و استقرار ذهنهای دیجیتالی قدرتمند گرفته شود تا مسیر پیشرفت این فناوری از کنترل خارج نشود.
آنها گفتهاند که باید آموزش سیستمهای هوش مصـنوعی متوقف شود و دولت موظف به دخالت در این موضوع است. آلتمن در این مورد میگوید: «برای اطمینان از اینکه توسعه اَبَر هوشی به گونهای ایمن اتفاق میافتد و به صورت روان و ملایم با سیستمهای موجود در جامعه ادغام میشود، باید همه با هم هماهنگ شوند.»
آسوشیتدپرس میگوید: «دولت آمریکا به طور علنی در حال سنجش احتمالات و خطرات هوش مصـنوعی است. CNN اعلام کرده که بایدن با مدیران ارشد اجرایی فناوری دربارهی اهمیت توسعهی اخلاقی و مسئولانهی هوش مصـنوعی گفتوگو کرده اتس. در ماه می، کاخ سفید از نقشهی راه برای سرمایهگذاری فدرال در تحقیق و توسعه رونمایی کرد که نوآوری مسئولانهای را ترویج میدهد که در خدمت منافع عمومی است، از حقوق و ایمنی مردم محافظت میکند و از ارزشهای دموکراتیک هم حمایت میکند. همچنین دولت به امکان تنظیم صنعت هوش مصـنوعی در آینده اشاره کرده است.»