هوش مصنوعی و خطرات احتمالی استفاده از آن عده زیادی از مردم دنیا را به خود مشغول کرده است. بیل گیتس در یک پست وبلاگی نحوه تفکر خود را در مورد خطرات ناشی از هوش مصنوعی (AI) بیان کرد.او درباره مزایایی که این فناوری برای آینده بشر به همراه خواهد داشت، خوشبین است اما افکار خود را در مورد زمینههای خطری که ممکن است به وجود بیاورد بیان کرده است. با ما در مجله اینترنتی فانیلی همراه باشید.
خطرات هوش مصنوعی: واقعی اما قابل مدیریت!
گیتس در پستی با عنوان بالا به طور خاص پنج خطر ناشی از هوش مصنوعی را مورد بحث قرار میدهد.
1. ممکن است اطلاعات نادرست تولید شده توسط هوش مصنوعی برای کلاهبرداری از مردم یا حتی تحت تاثیر قرار دادن نتایج یک انتخابات استفاده شوند.
2. هوش مصنوعی فرآیند جستجوی آسیبپذیریها در سیستمهای رایانهای را خودکار کرده و خطر حملات سایبری را به شدت افزایش خواهد داد.
3. هوش مصنوعی جایگزین بسیاری از مشاغل مردم در سراسر جهان خواهد بود.
4. قبلأ در تحقیقاتی مشخص شده است که سیستمهای هوش مصنوعی اطلاعات را تولید میکنند و سوگیری نشان میدهند.
5. در نهایت، دسترسی به ابزارهای هوش مصنوعی میتواند به این معنا باشد که دانشآموزان مهارتهای ضروری مانند مقالهنویسی را نمیآموزند و همین مسأله در پیشرفت تحصیلی آنهای خلل ایجاد خواهد کرد.
گیتس نقش مهمی در آینده هوش مصنوعی دارد. مایکروسافت – غول فناوری که او تأسیس کرد و هنوز هم سهامی در آن دارد – یکی از بزرگترین سرمایهگذاران OpenAI است که یکی از شرکتهای پیشرو در توسعه هوش مصـنوعی و خالق ChatGPT است.
در حالیکه گیتس اذعان میکند که “هیچ کس همه پاسخها را ندارد”،خوشبین است که انسانها میتوانند این خطرات را مدیریت کنند. گیتس مینویسد: آینده هوش مصـنوعی آنقدر که برخی فکر میکنند تاریک نیست یا آنطور که باقی فکر میکنند رویایی نیست.
از تاریخ درس بگیرید
گیتس خاطرنشان میکند که اقدامات دولتها، شرکتها و مردم به ما این امکان را داده است که خطرات ناشی از فناوریهای معاصر را در گذشته کاهش دهیم و او معتقد است که این موضوع در مورد هوش مصـنوعی نیز صادق خواهد بود.
به هر حال، این اولین بار نخواهد بود که جوامع توسط یک فناوری جدید قدرتمند تغییر شکل میدهند. گیتس چندین مثال از روشهایی را ذکر میکند که بشر قبلأ با پیشرفتهای فناوری سازگار شده است.
به طور مثال امروزه مردم یاد گرفتهاند که به کلاهبردارهای اینترنتی اعتماد نکنند. کلاهبرداریهایی که در آن شخصی خود را شاهزاده نیجریه معرفی میکرد و در ازای به اشتراک گذاشتن شماره کارت اعتباری، وعده پول بزرگی را به مردم میداد.
به نظر بیل گیتس مردم همانطور که درباره کلاهبرداریهای اینترنتی آگاه شدهاند درباره خطرات هوش مصـنوعی نیز آگاه خواهند شد.
مورد دیگر نگرانیهایی است که توسعه سلاحهای سایبری به کمک هوش مصـنوعی ایجاد خواهد کرد. تلاشی که عدهای معتقدند به یک مسابقه تسلیحاتی منجر خواهد شد.
گیتس مینویسد که جلوگیری از مسابقات تسلیحاتی دغدغه قدیمی بشر است. همچنین درباره بیکار شدن افراد در نتیجه رواج هوش مصـنوعی نظر بیل گیتس این است که در عوض افراد به مشاغل تازهای مشغول خواهند شد.
به جای عواقب بلند مدت روی عواقب کوتاهمدت و میانمدت تمرکز کنید
گیتس در پست وبلاگ خود به جای خطرات بلندمدت، مانند سیستمهای هوش مصـنوعی بسیار قدرتمند که شاید بتوانند اهداف مستقل خود را که با اهداف بشریت در تضاد است، ابداع کنند، فقط به خطراتی اشاره میکند که در حال حاضر وجود دارند یا به زودی ایجاد خواهند شد. این مسأله به این معنی نیست که گیتس این خطرات را جدی نمیگیرد.
در اوایل سال جاری، گیتس، همراه با دیگر رهبران فناوری، بیانیهای امضا کرد که هشدار میداد: کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات اجتماعی مانند همهگیریها و جنگ هستهای باشد.
اما گیتس مانند سایر متفکران هوش مصـنوعی مانند مارگارت میچل معتقد است که «فکر کردن در مورد این خطرات بلندمدت نباید به قیمت ریسکهای فوریتر تمام شود».
هوش مصنوعی ممکن است راه حلهایی برای مشکلاتی که ایجاد میکند ارائه دهد
گیتس پیشنهاد میکند که ممکن است هوش مصـنوعی به ارائه راه حلهایی برای مشکلاتی که ایجاد میکند، بپردازد. آشکارسازهای دیپ فیک با هوش مصـنوعی میتوانند با اطلاعات نادرست تولید شده توسط این فناوری مقابله کنند. او مینویسد که هوش مصـنوعی آسیبپذیریهای امنیت سایبری را شناسایی کرده و قبل از اینکه سلاحهای سایبری مبتنی بر هوش مصـنوعی از آنها سوءاستفاده کنند، آنها را اصلاح خواهد کرد.
این رویکرد همراه با ایمان او به توانایی جامعه برای مدیریت تغییرات تکنولوژیکی و مزایایی که این تغییرات به همراه خواهد داشت، خوشبینی محتاطانه گیتس را در مورد هوش مصـنوعی و درخواست او برای توسعه بیشتر به جای توقف هوش مصـنوعی توضیح میدهد.
تفکر او با کسانیکه سیستمهای هوش مـصنوعی را توسعه میدهند مطابقت دارد. به عنوان مثال، OpenAI اخیرأ اعلام کرد که در حال راهاندازی تیمی است که هدف آن توسعه سیستمهای هوش مصـنوعی برای هدایت و کنترل سیستمهایی بسیار هوشمندتر از انسان خواهد بود.