رسانه اینترنتی فانیلی

آیا باید به خاطر استفاده از هوش مصنوعی احساس گناه کنیم؟

تصور کنید وظیفه‌ای را که معمولاً انجام‌دادن آن چند ساعت طول می‌کشد، از تکالیف مدرسه گرفته تا وظایف شغلی، با کمک هوش‌ مصنوعی در مدتی بسیار کوتاه‌تر به پایان می‌رسانید. اتفاقاً نتیجه‌ی کار هم نه‌تنها بد نیست، بلکه شاید بهتر از همیشه به‌نظر برسد؛ اما بعد از تحویل کار احساس متناقضی را تجربه می‌کنید، انگار به‌طور پنهانی مسیر میان‌بری را طی کرده‌اید که دستاورد شما را زیر سؤال می‌برد.

اگر در طول ماه‌های گذشته یا یک سال خیر شرایط مشابهی را پشت سرگذاشته‌اید، باید بدانید که تنها نیستید. این روزها تعداد افرادی که به‌خاطر استفاده‌ی روزمره از هوش مصنوعی احساس گناه می‌کنند، در سراسر جهان روبه‌افزایش است و به همین دلیل مطالعات زیادی در این زمینه، عمدتاً تحت نام «AI Guilt» صورت می‌گیرد.

درعین‌حال، احساس گناه به‌خاطر استفاده از هوش مصنوعی رابطه‌ی تنگاتنگی با اخلاقیات هوش مصنوعی (AI Ethics) دارد؛ مسائلی نظیر مزیت‌های نابرابر، جایگزین‌شدن نیروی کار با الگوریتم‌ها، مصرف بیش‌ازحد انرژی برای پردازش مدل‌های هوش مصنوعی، حریم خصوصی، انواع سوگیری‌ها و مواردی دیگر.

مدتی پیش وبسایت فوربز در گزارشی، به بررسی مطالعاتی پرداخت که در این زمینه با حضور نسل Z صورت‌ گرفته بود. از‌آنجاکه نسل زد در دوران تغییرات سریع تکنولوژی بزرگ شده و نسبت به دیگر نسل‌ها، آشنایی بیشتری با پیامدهای اجتماعی و اخلاقی فناوری‌های روز دارد، احتمالاً بهترین گروه برای تحقیقات واقع‌گرایانه محسوب شود.

طبق یکی از این تحقیقات، اگرچه نسل Z به‌سادگی بیشتری استفاده از فناوری‌های هوش مصنوعی را در محیط کاری خود می‌پذیرد، همچنان با احساس گناه و ترس از وابستگی به این ابزارها دست‌وپنجه نرم می‌کند. به گزارش EduBirdie حدود ۳۶ درصد از پاسخ‌دهندگان نسل زد بابت استفاده از هوش مصنوعی برای کمک به وظایف کاری خود احساس گناه می‌کردند.

به‌علاوه یک‌سوم پاسخ‌دهندگان نیز نگران وابستگی بیش‌ازحد به ChatGPT بودند، زیرا فکر می‌کردند این روال مهارت‌های تفکر انتقادی آن‌ها را محدود می‌کند. همچنین ۱۸ درصد از پاسخ‌دهندگان اذعان کردند که استفاده از هوش مصنوعی به‌مرور خلاقیت آن‌ها را کاهش می‌دهد.

اما بیایید به این سؤال برگردیم که چرا بابت استفاده از هوش مصنوعی که صرفاً یکی از ابزارهای نوظهور فناوری محسوب می‌شود، احساس گناه می‌کنیم؟ مگر همه‌ی انسان‌ها در طول تاریخ از ابزارهای مختلف برای راحت‌تر کردن زندگی‌شان بهره نبرده‌اند؟

در این مقاله نمی‌خواهیم قضاوت کنیم که این احساسات درست هستند یا غلط، بلکه می‌خواهیم با مرور زوایای مختلف، ریشه‌های آن را بهتر بشناسیم تا رابطه‌ی سالم‌تری با تکنولوژی داشته باشیم.

مرجان شیخی

OpenAI؛‌ شرکت مرموزی که می‌خواهد زودتر از همه به هوش مصنوعی انسان‌گونه برسد

OpenAI؛‌ شرکت مرموزی که می‌خواهد زودتر از همه به هوش مصنوعی انسان‌گونه برسد
مطالعه ’21
کپی لینک

ریشه‌های روان‌شناختی

به گفته‌ی روان‌شناسان، بسیاری از تناقضات درونی ما به چیزهایی برمی‌گردد که در طول زندگی به‌طور مداوم شنیده‌ایم: مثلاً اینکه موفقیت از تلاش حاصل می‌شود؛ پس طبیعتاً وقتی فکر می‌کنیم ابزاری این معادله را برهم می‌زند، ذهنمان آشفته می‌شود.

در مرحله‌ی دوم وقتی عادت کرده‌ایم پس از تلاشی مشخص و سخت، به نتیجه‌ای مطلوب برسیم و آن را جشن بگیریم، مدل پاداش‌دهی مغزمان طور دیگری تنظیم شده است و بهره‌گرفتن از ابزارهایی که ما را سریع‌تر به نتیجه می‌رساند، این چرخه‌ی پاداش‌دهی را مختل می‌کند.

بخشی از احساس گناه ما به عادت‌ها و آموخته‌های قدیمی‌مان برمی‌گردد

مغز انسان در برابر تغییرات بزرگ و سریع مقاومت می‌کند. برای مغز ما، استفاده از هوش مصنوعی مثل این است که یک‌شبه راه صدساله را برویم. حتی وقتی می‌دانیم این ابزار می‌تواند کمکمان کند، باز هم بخشی از وجودمان در برابرش مقاومت می‌کند. هیچ‌یک از این موارد موضوع جدیدی نیست.

اصالت: وقتی از هوش مصنوعی برای وظایف خاصی استفاده می‌کنیم، نگران می‌شویم که آیا نتیجه‌ی نهایی واقعاً ایده‌های منحصربه‌فرد و اصیل ما را منعکس می‌کند یا اعتبار کار ما تحت‌الشعاع هوش مصنوعی کم‌رنگ و مخدوش می‌شود؟

تقلب: شاید شایع‌ترین مشکل این باشد که وقتی کارمان را با کمک این ابزارها سریع‌تر انجام می‌دهیم، فکر می‌کنیم راه ساده‌تر را انتخاب کرده‌ایم، زیرا مشابه گذشته از دانش و تلاش و تجربه‌ی خودمان استفاده نمی‌کنیم.

ترس از گیر افتادن: فکر اینکه استفاده‌ی ما از ابزارها و فناوری‌های هوش مصنوعی کشف شود، چه ناخواسته و چه برخلاف قوانین و دستورالعمل‌های نانوشته خاص، ما را نگران و ناراحت می‌کند. به بیان ساده ما از مخدوش‌شدن شهرت حرفه‌ای‌مان می‌ترسیم.

ترس از قضاوت دیگران: ما نگرانیم وقتی اساتید، همکاران یا مشتریانمان متوجه شوند از هوش مصنوعی برای کارمان استفاده کرده‌ایم، تلاش‌هایمان را نادیده بگیرند.

بسیاری از مردم از اینکه دیگران آن‌ها را بابت استفاده از هوش مصنوعی قضاوت کنند، نگران‌اند

البته این قضاوت می‌تواند از درک نادرست آن‌ها از قابلیت‌های هوش مصنوعی ناشی شود، ولی درهرحال طبق تحقیقات ۲۰ درصد از نیرو کار جوان، هنگام استفاده از هوش مصنوعی در محل کار خود با مشکل مواجه شده‌اند و حتی ۲ درصد هم به‌خاطر ChatGPT اخراج شده‌اند.

پس این نگرانی اصلاً بی‌مورد نیست و لزوم آموزش و تعلیم بهتر در مورد استفاده مناسب و مؤثر از هوش مصنوعی در محل کار را آشکارتر می‌کند.

کپی لینک

آیا هوش مصنوعی خلاقیت ما را نابود می‌کند؟

شاید یکی از مهم‌ترین مسائلی که هنگام استفاده از هوش مصنوعی ما را نگران می‌کند، این باشد که آیا به‌مرور زمان خلاقیتمان را از دست می‌دهیم؟

برای مثال تا قبل از رواج چت‌بات‌های مشهور، موضوعات مورد نظرمان را در موتورهای جست‌وجو سرچ می‌کردیم. نتیجه‌ای که موتور جست‌وجو به ما نشان می‌دهد غالباً ترکیبی از لینک‌های مرتبط و نامرتبط است. در مقابل چت‌بات‌های هوش مصنوعی مستقیماً پاسخ سؤال ما را می‌دهند و در تسریع کارها واقعاً مؤثرند.

هوش مصنوعی می‌تواند دانش اولیه‌ی ما را در بعضی علوم بهبود دهد

اما هنگامی‌ که نتایج سرچ گوگل را می‌بینیم، بسیاری از اوقات همین نتایج غیرمرتبط نیز به افکار ما بال‌وپر می‌دهد و جرقه‌های جدیدی در ذهنمان زده می‌شود. اگر پاسخ هر سؤالی را، با فرض درست بودن پاسخ‌های هوش مصنوعی، مستقیم و به‌راحتی دریافت کنیم، خلاقیت ما افت پیدا می‌کند؟

به گفته‌ی متخصصان علوم روان‌شناختی، خلاقیت انسان را می‌توان به دو نوع تقسیم کرد: هنگامی‌ که برای اولین‌بار به چیزی فکر می‌کنیم، حتی اگر دیگران نیز به آن موضوع اندیشیده باشند.

نوع دوم زمانی رخ می‌دهد که ما به شیوه‌ای منحصربه‌فرد خودمان به چیزی فکر می‌کنیم و لحظه‌ای مانند «یافتم، یافتم» ارشمیدس را در ابعاد کوچک و بزرگ حس می‌کنیم.

استفاده‌ی مداوم و عمومی از هوش مصنوعی، واقعاً در بلندمدت خلاقیت اصیل را کاهش می‌دهد

هوش مصنوعی می‌تواند بینش ما را در حوزه‌های مختلفی مانند زیست‌شناسی، تاریخ و ریاضیات بسط دهد و زمینه را برای بهبود ایده‌های نوع اول مهیا کند؛ اما مدل‌های هوش مصنوعی واقعاً فکر نمی‌کنند و به انتزاع پیچیده‌ی داده‌های آماری متکی هستند. به‌عبارتی، اگرچه مدل‌های هوش مصنوعی قادرند ایده‌ها و تفکرات جدیدی را ما برانگیزند، به‌واسطه‌ی داده‌های زیربنایی آموزشی خود، محدودیت دارند.

در این مبحث، خطری که کارشناسان به آن اشاره می‌کنند، «مارپیچ عمومی» نامیده می‌شود:

تصور کنید ما از هوش مصنوعی برای تولید محتوا (متن، تصویر، موسیقی و ویدیو) استفاده می‌کنیم. وقتی بسیاری از مردم از الگوهای مشابهی استفاده کنند، به‌تدریج محتواهایی که منتشر می‌شود، یکنواخت و یکدست می‌شود؛ اما این محتوای یکنواخت بعداً مجدداً برای تعلیم هوش مصنوعی استفاده می‌شود و نسل بعدی هوش مصنوعی، محتوای یکدست‌تری تولید می‌کند و این چرخه‌ی معیوب همچنان ادامه دارد.

پس واقعاً تولید محتوا با هوش مصنوعی خلاقیت واقعی و تنوع افکار را کاهش می‌دهد، همه‌چیز به‌تدریج شبیه هم می‌شود و در طول زمان کمتر شاهد نوآوری‌های اصیل و متفاوت خواهیم بود. با این حساب خطر کاهش خلاقیت، خطری واقعی است.

کپی لینک

نگرانی‌های اخلاقی هوش مصنوعی

شاید هرکدام از ما راه‌حل شخصی‌شده‌ی خودمان را در خصوص احساس گناه فردی ترجیح دهیم، اما نباید از نگرانی‌ها و پرسش‌های عمیق‌تری که در زمینه‌ی پیامدهای به‌کارگیری هوش مصنوعی وجود دارد، منحرف شویم.

اغلب مردم گستره‌ی کاربردهای هوش مصنوعی را دستکم می‌گیرند، چنان‌ که ما در طول روز ناخواسته از بسیاری از این قابلیت‌ها استفاده می‌کنیم. مسئله‌ی اخلاقیات هوش مصنوعی، فراتر از احساس مشهود ما است و به همین دلیل در سراسر جهان نشست‌های زیادی درباره استفاده‌ی اخلاقی از این فناوری برگزار می‌شود.

برای مثال، هوش مصنوعی در چه نقش‌هایی باید جایگزین انسان شود؟ چه اقداماتی برای حفاظت از داده‌های شخصی و جلوگیری از نقض احتمالی حقوق بشر انجام می‌شود؟ این داده‌ها چگونه و با چه هدفی باید استفاده شوند؟

هوش مصنوعی می‌تواند پتانسیل‌های کسب‌وکار شما را افزایش دهد، ولی به قوانین صریح و روشن نیاز دارد

احتمالاً به یاد دارید که سال ۲۰۲۳ استفاده از هوش مصنوعی باعث اعتصاب طیف وسیعی از نویسندگان جهان شد. پیش از ادامه‌ی مطلب به این سؤال پاسخی منصفانه دهید: اگر هوش مصنوعی واقعاً بتواند فیلمنامه بنویسد، باید این کار را انجام دهد؟

هوش مصنوعی می‌تواند پتانسیل‌های کسب‌وکار شما را افزایش دهد، ولی بدون وضع قوانینی روشن، با چالش‌های سنگینی روبه‌رو خواهید شد.

جابه‌جایی شغلی

بیکار شدن نیروی کار و جایگزین‌شدن انسان‌ها با هوش مصنوعی، مکرراً موضوع بسیاری از مباحثات این حوزه قرار می‌گیرد. به گزارش CompTIA بیش از ۸۱ درصد از کارمندان و کارگران در یک سال اخیر مقالاتی را خوانده‌اند که بر جایگزین‌شدن هوش مصنوعی با نیروی کار تمرکز دارند.

مرجان شیخی

آیا هوش مصنوعی و ربات‌ها می‌خواهند ما را از کار بیکار کنند؟

آیا هوش مصنوعی و ربات‌ها می‌خواهند ما را از کار بیکار کنند؟
مطالعه ’12

در همین مقاله آمده است که از هر ۴ کارمند، ۳ نفر در مورد تأثیر فرایندهای خودکار بر آینده‌ی شغل خود نگران هستند.

حریم خصوصی

مدل‌های هوش مصنوعی با حجم عظیمی از داده‌ها آموزش می‌بینند که بخشی از آن‌ها از اطلاعات قابل‌شناسایی شخصی است. درحال‌حاضر چگونگی جمع‌آوری، ذخیره و پردازش این داده‌ها به‌روشنی مشخص نیست. چه کسی می‌تواند به این داده‌ها دسترسی داشته باشد و چگونه از آن‌ها استفاده می‌کند؟

اما نکته‌ی دیگری که باعث نگرانی کارشناسان می‌شود، این است که سازمان‌های اجرای قانون از هوش مصنوعی برای نظارت و ردیابی مظنونین و متهمان استفاده می‌کنند.

استفاده از هوش مصنوعی حتی برای ردیابی مظنونین، امکان نقض حریم خصوصی را فراهم می‌کند

گرچه در مثال‌های مشهودی مانند پیداکردن یک قاتل سریالی، این موضوع ارزشمند به‌نظر می‌رسد، ولی نگرانی‌هایی جدی در زمینه‌ی سوءاستفاده از این قابلیت‌ها در فضاهای عمومی و نقض حقوق فردی و حریم خصوصی وجود دارد.

کپی لینک

سوگیری و تعصب

اگرچه هوش مصنوعی ذاتاً با تعصب همراه نیست، اما سیستم‌ها با استفاده از داده‌های منابع انسانی و یادگیری عمیق آموزش می‌بینند که می‌تواند به رواج تعصب منجر شود.

برای مثال اگر الگوریتم استخدام شرکت‌های بین‌المللی، با استفاده از داده‌هایی تعلیم ببیند که نسبت به نیروی کار خاورمیانه‌ای سوگیری داشته باشد، می‌تواند گروه بزرگی از داوطلبان شایسته را از دایره‌ی استخدام حذف کند.

توضیح و تفسیر نتایج

واقعاً کافی نیست که شرکت‌های مطرح، هوش مصنوعی خودشان را عرضه کنند و بعد به تماشای عملکرد آن‌ها بنشینند. درک فرایند تصمیم‌گیری در برخی کاربردهای هوش مصنوعی اهمیت زیادی دارد، به‌طور خاص به صنعت پزشکی و اجرای قانون فکر کنید.

چه کسی مسئول نتایج تصمیم‌هایی است که با هوش مصنوعی اتخاذ می‌شوند؟

حتی کارشناسان هم به‌راحتی متوجه نمی‌شوند چرا هوش مصنوعی نتایج خاصی را ارائه می‌دهد و این امر می‌تواند پیامدهایی جدی برای جان انسان‌ها به‌همراه داشته باشد.

پاسخ‌گویی

حضور فزاینده‌ی هوش مصنوعی در تمام صنایع به این معنی خواهد بود که بسیاری از تصمیم‌ها مستقیم یا غیرمستقیم با کمک ابزارهای AI اخذ می‌شود.

اگر این تصمیم‌ها نتایجی منفی داشته باشند، چگونه باید مسئولیت خروجی آن‌ها را مشخص کنیم؟ آیا شرکت‌ها مسئول اعتبارسنجی الگوریتم‌های ابزاری هستند که می‌خرند؟ یا باید به سازندگان ابزارهای هوش مصنوعی مراجعه کنند؟ اصلاً چگونه می‌توان شرکت‌ها و افراد را پاسخگو نگه داشت؟

دیپ‌فیک‌ها

شاید اوایل دیپ‌فیک‌ها سرگرم‌کننده به‌نظر می‌رسیدند، اما حالا می‌توانند قابلیت تشخیص صدا و چهره را دور بزنند و این امر نگرانی‌های امنیتی خرد و کلانی در پی دارد. یکی از تحقیقات نشان می‌داد که یک API مایکروسافت در ۷۵ درصد مواقع توسط دیپ‌فیک‌هایی که به‌سادگی تولید می‌شوند، فریب می‌خورد.

استفاده از دیپ‌فیک‌ها برای تأثیرگذاری بر افکار عمومی پیامدهای تلخ و گسترده‌ای به همراه خواهد داشت

چالش‌های اخلاقی دیپ‌فیک‌ها کمی ترسناک به‌نظر می‌رسد، مخصوصاً در رابطه‌ با جعل هویت افراد. به‌علاوه استفاده از دیپ‌فیک‌ها برای تأثیرگذاری بر افکار عمومی (مثلاً در رقابت‌های تجاری و سیاسی) پیامدهای گسترده‌ای خواهد داشت.

مرجان شیخی

همه‌چیز درباره دیپ فیک؛ وقتی تکنولوژی مرز واقعیت و دروغ را از بین می‌برد

همه‌چیز درباره دیپ فیک؛ وقتی تکنولوژی مرز واقعیت و دروغ را از بین می‌برد
مطالعه ’17

برای مثال اگر کارشناسان بورس باتوجه‌به یک ویدیوی غیرواقعی تصور کنند مدیرعامل یک شرکت قدرتمند تصمیم‌ها یا اقدامات مشکوکی دارد، بی‌شک بازار سهام تحت‌تأثیر قرار می‌گیرد.

اطلاعات نادرست

موضوع مهم اطلاعات نادرستی را که توسط هوش مصنوعی تولید و به‌سرعت فراگیر می‌شود، بیش از هرجا در شبکه‌های اجتماعی می‌بینیم.

مشکل اینجا است که سرعت وایرال‌شدن اطلاعات نادرست به‌اندازه‌ای زیاد است که به‌سادگی نمی‌توان منشأ آن را پیدا کرد. در مرحله‌ی بعد این اخبار جعلی واقعی به نظر می‌رسند، درحالی‌که این‌طور نیست و مبارزه با آن هم به‌سادگی امکان ندارد.

سوءاستفاده از مالکیت معنوی

هنوز ماجرای شکایت گروهی از نویسندگان از اوپن‌ای‌آی را به یاد داریم که مدعی بودند چت جی‌پی‌تی با استفاده از محتوای آن‌ها تعلیم‌ دیده است و این شرکت قائل به پرداخت کپی‌رایت محتوا نیست. در متن شکایت آمده بود که این امر توانایی امرار معاش نویسندگان را به خطر می‌اندازد.

همان‌طور که نگرانیم که هوش‌ مصنوعی تا چند سال دیگر نیروی کار را بیکار کند، باید توجه داشته باشیم که حتی آموزش این مدل‌ها نیز معیشت برخی افراد را دچار بحران می‌کند.

این موضوع درمورد هنرمندان نیز مصداق دارد. هوش مصنوعی می‌تواند سبک‌های هنری را تقلید کند و این امر ارزش اقتصادی آثار اصلی را کاهش می‌دهد. هنرمندان معاصر احتمالاً درآمد و فرصت‌های شغلی خود را از دست می‌دهند و امکان سوءاستفاده از میراث‌فرهنگی جوامع مختلف نیز وجود دارد.

تعلیم مدل‌های هوش مصنوعی با آثار نویسندگان و هنرمندان، این اقشار را به لحاظ معیشت دچار مشکل خواهد کرد

هنگامی‌ که مدل‌های هوش مصنوعی با تصاویر نقاشی‌های هنرمندان صاحب‌سبک تاریخ تعلیم می‌بینند و تصاویری به سبک‌های درخواستی تولید می‌کنند، ارزش‌گذاری آثار هنری واقعی به چالشی بالقوه تبدیل می‌شود، ضمن اینکه ریسک یکسان‌سازی هم، همان‌طور که در بحث کاهش خلاقیت اشاره کردیم، بالا می‌رود.

از طرف دیگر حتی اگر شرکت‌هایی مانند متا و OpenAI مدعی شوند که کپی‌رایت هنرمندان و نویسندگان را رعایت می‌کنند، هر یک از خالقان محتواهای اصلی چگونه می‌توانند خروجی مدل‌ها را بررسی کنند؟

کاهش روابط اجتماعی

هوش مصنوعی پتانسیل بالایی برای ارائه‌ی تجربیات شخصی‌سازی‌شده، براساس ترجیحات کاربران دارد و می‌تواند خدمات مشتریان را به نحو چشمگیری بهبود دهد.

اما روی دیگر این سکه کاهش همدلی اجتماعی است. اگر طبق روال کار الگوریتم‌های AI، در شبکه‌های اجتماعی فقط پست‌هایی را ببینید که نظرات خودتان را تأیید و تقویت می‌کند؛ به‌احتمال کمتری ذهنیت باز را در خودتان پرورش می‌دهید و با دیگران مشارکت و همدلی می‌کنید.

الگوریتم‌های هوش مصنوعی شبکه‌های اجتماعی، ذهنیت باز کاربران را تخریب می‌کنند

دومین مسئله به روابط دوستانه با چت‌بات‌های هوش مصنوعی اشاره دارد که البته اساتید روان‌شناسی نظرات متفاوتی در این مورد دارند. برخی استدلال می‌کنند که وقت گذراندن با هوش مصنوعی به‌عنوان یک همنشین در برخی شرایط مفید واقعی می‌شود و برخی نیز استدلال کاملاً متفاوتی دارند.

متعادل‌کردن اخلاق با رقابت

رقابتی که درحال‌حاضر بین غول‌های فناوری و استارتاپ‌های مطرح هوش مصنوعی وجود دارد، باعث شده است موفقیت این بازیگران با «اول بودن» تعیین شود: چه کسی اولین فناوری، یا کاربرد خاص هوش مصنوعی را ارائه می‌کند؟ متأسفانه اغلب شرکت‌ها زمان کافی برای اطمینان از ایمنی و طراحی اخلاق‌مدارانه‌ی محصولات خود صرف نمی‌کنند.

کپی لینک

هوش‌ مصنوعی و محیط‌زیست: آنچه شرکت‌های فناوری به ما نمی‌گویند

یکی دیگر از استدلال‌هایی که در زمینه‌ی هوش مصنوعی مطرح می‌شود، به تأثیرات این فناوری‌ها بر محیط‌زیست و منابع طبیعی اشاره دارد.

درحالی‌که شرکت‌های تولیدکننده‌ی گوشی‌های موبایل، بسیاری از ویژگی‌های جدید خود را مبتنی بر هوش مصنوعی ارائه می‌کنند، به‌سختی می‌توانیم ادعا کنیم که از این فناوری‌ها استفاده نمی‌کنیم:

اپل اینتلیجنس در حالی دنیای فناوری را به شوروشوق آورد که گوگل تلاش می‌کند هوش مصنوعی را هرچه بیشتر در سیستم‌عامل اندروید بگنجاند و همه‌ی کاربران خلاصه‌های هوش مصنوعی را بالای اغلب جست‌وجوهایی گوگل می‌بینند.

میزان انرژی و آب مصرفی برای تعلیم و پردازش‌های هوش مصنوعی فراتر از تصور ما است

به‌علاوه OpenAI و متا در حال توسعه‌ی موتورهای جست‌وجوی مبتنی بر هوش مصنوعی خود هستند و نرخ کاربران Perplexity هم روزبه‌روز افزایش می‌یابد.

ساشا لوچیونی، پژوهشگر هوش مصنوعی می‌گوید:

هوش مصنوعی -به‌ویژه هوش مصنوعی مولد- با شفافیت کم یا بدون هیچ شفافیتی به ما تحمیل می‌شود و صادقانه بگویم، مکانیسم‌های انصراف یا وجود ندارند یا پیچیده هستند.

به همین دلیل حتی اگر در زمره‌ی افرادی باشیم که همین حالا هم حس خوبی نسبت به محتوای بی‌کیفیت هوش مصنوعی (که زودتر از تصوراتمان وب امروزی را بی‌ارزش می‌کند) نداریم، بازهم به‌طور غیرمستقیم در مسابقه‌ی شرکت‌های بزرگ حضور داریم.

هوش مصنوعی در اشکال مختلف خود به انرژی و آب زیادی برای کار نیاز دارد. شرکت‌هایی مانند مایکروسافت، اپل و گوگل قدم‌هایی در راستای قانع‌کردن اذهان عمومی برداشته‌اند:

مثلاً مایکروسافت می‌گوید عملیات هوش مصنوعی در کامپیوترهای کوپایلت‌ پلاس به‌صورت محلی انجام می‌شود و اپل نیز همین ادعا را در مورد اپل اینتلیجنس دارد.

گوگل قصد دارد با سرمایه‌گذاری ۲۰ میلیارد دلاری پارک‌هایی را برای دیتاسنترهای هوش مصنوعی احداث کند که تمام انرژی مورد نظر خود را از منابع تجدیدپذیر تأمین می‌کند.

نتایج تحقیقات شائولی رن، استاد مهندسی دانشگاه کالیفرنیا ریورساید، به ما درک بهتری از میزان انرژی مصرفی هوش مصنوعی می‌دهد:

او پس از بررسی داده‌های یکی از مطالعات اخیر مایکروسافت تخمین می‌زند که درخواست از ChatGPT برای نوشتن دو ایمیل ۲۰۰ کلمه‌ای تقریباً به‌اندازه انرژی مورد نیاز یک تسلا مدل ۳ برای طی کردن ۱٫۶ کیلومتر مسافت، برق مصرف می‌کند. پردازنده‌هایی که این ایمیل‌ها را تولید کردند به‌دلیل تولید گرمای زیاد، به حدود چهار بطری نیم لیتری آب برای خنک‌شدن نیاز دارند.

مهرداد عیسی‌لو

تشنه هستید؟ هوش مصنوعی هم همین‌طور!

تشنه هستید؟ هوش مصنوعی هم همین‌طور!
مطالعه ‘8

به گزارش گلدمن ساکس مصرف برق مراکز داده، که محل اصلی پردازش هوش مصنوعی هستند، تا پایان این دهه ۱۶۰ درصد افزایش می‌یابد و انتشار دی‌اکسیدکربن بیش از دو برابر می‌شود.

هم‌زمان میزان آب مورد نیاز نیز به‌قدری افزایش خواهد یافت که تا سال ۲۰۲۷، عطش هوش مصنوعی می‌تواند معادل نیمی از برداشت سالانه‌ی آب (میزان آبی که از محیط‌زیست خارج می‌شود و به مصرف نیازهای انسانی یا صنعتی می‌رسد) بریتانیا باشد.

البته تمامی این بررسی‌ها با مطالعاتی مبتنی بر داده‌های محدود صورت می‌گیرد، زیرا شرکت‌های بزرگ فناوری که مهم‌ترین سیستم‌های هوش مصنوعی را می‌سازند، از جمله اپل، گوگل، مایکروسافت و OpenAI، دقیقاً نمی‌گویند مدل‌هایشان چقدر انرژی یا آب مصرف می‌کنند.

شائولی رن در این زمینه می‌گوید: «ما فقط به یک جعبه‌ی سیاه نگاه می‌کنیم؛ چون هیچ ایده‌ای از مصرف انرژی برای تعامل با مدل‌های زبانی بزرگ نداریم.»

برخی کارشناسان معتقدند ما کاربران نباید از این اتفاقات احساس گناه کنیم؛ ولی صرف‌نظر از اینکه هوش مصنوعی همه‌ی مشکلات ما را حل کند یا همه‌ی ما را نابود کند (یا هر دو!)، مسلماً به شفاف‌سازی شرکت‌های مطرح تکنولوژی نیاز داریم.

هوش مصنوعی آمده است که بماند: اگر از ابزارها و چت‌بات‌ها به‌عنوان دستیار استفاده می‌کنید، شاید بهتر باشد اعتبار کار دستیارتان را به او بدهید، همان‌طور که انتظار دارید دیگران اعتبار خلاقیت و تلاش شما را به رسمیت بشناسند.

برای مثال خوب است زیر تصاویری که با استفاده از هوش مصنوعی برای پست‌های شبکه‌های اجتماعی یا وبلاگمان آماده‌کرده‌ایم، این موضوع را به مخاطبان اطلاع دهیم. هرچند شرکت‌هایی مانند OpenAI می‌گویند به فکر راه‌حل‌هایی هستند که تفاوت محتوای انسانی با هوش مصنوعی را روشن کند، ولی در وهله‌ی اول ما باید استفاده‌ی سالم‌تری از این فناوری‌ها داشته باشیم.

ما نمی‌توانیم پیش‌بینی کنیم که هوش مصنوعی مولد با چه سرعتی رشد خواهد کرد. مثلاً مدل‌های فعلی قدرت کدنویسی پیچیده را ندارند و شاید این موضوع در چند سال آینده تغییر کند. با این حال می‌توانیم به‌جای اینکه صرفاً در نقش مصرف‌کننده ظاهر شویم، روی بهبود تخصص و مهارتمان در استفاده‌ی بهینه از ابزارها سرمایه‌گذاری کنیم.

با دوستان خود به اشتراک بگذارید

تازه ترین مطالب
فرهنگی هنری,ورزشی,گردشگری,آموزشی

تازه ها

رویدادهای ویژه

به زودی رویدادهای ویژه در این مکان برای شما قابل نمایش خواهد بود.