تصور کنید وظیفهای را که معمولاً انجامدادن آن چند ساعت طول میکشد، از تکالیف مدرسه گرفته تا وظایف شغلی، با کمک هوش مصنوعی در مدتی بسیار کوتاهتر به پایان میرسانید. اتفاقاً نتیجهی کار هم نهتنها بد نیست، بلکه شاید بهتر از همیشه بهنظر برسد؛ اما بعد از تحویل کار احساس متناقضی را تجربه میکنید، انگار بهطور پنهانی مسیر میانبری را طی کردهاید که دستاورد شما را زیر سؤال میبرد.
اگر در طول ماههای گذشته یا یک سال خیر شرایط مشابهی را پشت سرگذاشتهاید، باید بدانید که تنها نیستید. این روزها تعداد افرادی که بهخاطر استفادهی روزمره از هوش مصنوعی احساس گناه میکنند، در سراسر جهان روبهافزایش است و به همین دلیل مطالعات زیادی در این زمینه، عمدتاً تحت نام «AI Guilt» صورت میگیرد.
درعینحال، احساس گناه بهخاطر استفاده از هوش مصنوعی رابطهی تنگاتنگی با اخلاقیات هوش مصنوعی (AI Ethics) دارد؛ مسائلی نظیر مزیتهای نابرابر، جایگزینشدن نیروی کار با الگوریتمها، مصرف بیشازحد انرژی برای پردازش مدلهای هوش مصنوعی، حریم خصوصی، انواع سوگیریها و مواردی دیگر.
مدتی پیش وبسایت فوربز در گزارشی، به بررسی مطالعاتی پرداخت که در این زمینه با حضور نسل Z صورت گرفته بود. ازآنجاکه نسل زد در دوران تغییرات سریع تکنولوژی بزرگ شده و نسبت به دیگر نسلها، آشنایی بیشتری با پیامدهای اجتماعی و اخلاقی فناوریهای روز دارد، احتمالاً بهترین گروه برای تحقیقات واقعگرایانه محسوب شود.
طبق یکی از این تحقیقات، اگرچه نسل Z بهسادگی بیشتری استفاده از فناوریهای هوش مصنوعی را در محیط کاری خود میپذیرد، همچنان با احساس گناه و ترس از وابستگی به این ابزارها دستوپنجه نرم میکند. به گزارش EduBirdie حدود ۳۶ درصد از پاسخدهندگان نسل زد بابت استفاده از هوش مصنوعی برای کمک به وظایف کاری خود احساس گناه میکردند.
بهعلاوه یکسوم پاسخدهندگان نیز نگران وابستگی بیشازحد به ChatGPT بودند، زیرا فکر میکردند این روال مهارتهای تفکر انتقادی آنها را محدود میکند. همچنین ۱۸ درصد از پاسخدهندگان اذعان کردند که استفاده از هوش مصنوعی بهمرور خلاقیت آنها را کاهش میدهد.
اما بیایید به این سؤال برگردیم که چرا بابت استفاده از هوش مصنوعی که صرفاً یکی از ابزارهای نوظهور فناوری محسوب میشود، احساس گناه میکنیم؟ مگر همهی انسانها در طول تاریخ از ابزارهای مختلف برای راحتتر کردن زندگیشان بهره نبردهاند؟
در این مقاله نمیخواهیم قضاوت کنیم که این احساسات درست هستند یا غلط، بلکه میخواهیم با مرور زوایای مختلف، ریشههای آن را بهتر بشناسیم تا رابطهی سالمتری با تکنولوژی داشته باشیم.
ریشههای روانشناختی
به گفتهی روانشناسان، بسیاری از تناقضات درونی ما به چیزهایی برمیگردد که در طول زندگی بهطور مداوم شنیدهایم: مثلاً اینکه موفقیت از تلاش حاصل میشود؛ پس طبیعتاً وقتی فکر میکنیم ابزاری این معادله را برهم میزند، ذهنمان آشفته میشود.
در مرحلهی دوم وقتی عادت کردهایم پس از تلاشی مشخص و سخت، به نتیجهای مطلوب برسیم و آن را جشن بگیریم، مدل پاداشدهی مغزمان طور دیگری تنظیم شده است و بهرهگرفتن از ابزارهایی که ما را سریعتر به نتیجه میرساند، این چرخهی پاداشدهی را مختل میکند.
بخشی از احساس گناه ما به عادتها و آموختههای قدیمیمان برمیگردد
مغز انسان در برابر تغییرات بزرگ و سریع مقاومت میکند. برای مغز ما، استفاده از هوش مصنوعی مثل این است که یکشبه راه صدساله را برویم. حتی وقتی میدانیم این ابزار میتواند کمکمان کند، باز هم بخشی از وجودمان در برابرش مقاومت میکند. هیچیک از این موارد موضوع جدیدی نیست.
اصالت: وقتی از هوش مصنوعی برای وظایف خاصی استفاده میکنیم، نگران میشویم که آیا نتیجهی نهایی واقعاً ایدههای منحصربهفرد و اصیل ما را منعکس میکند یا اعتبار کار ما تحتالشعاع هوش مصنوعی کمرنگ و مخدوش میشود؟
تقلب: شاید شایعترین مشکل این باشد که وقتی کارمان را با کمک این ابزارها سریعتر انجام میدهیم، فکر میکنیم راه سادهتر را انتخاب کردهایم، زیرا مشابه گذشته از دانش و تلاش و تجربهی خودمان استفاده نمیکنیم.
ترس از گیر افتادن: فکر اینکه استفادهی ما از ابزارها و فناوریهای هوش مصنوعی کشف شود، چه ناخواسته و چه برخلاف قوانین و دستورالعملهای نانوشته خاص، ما را نگران و ناراحت میکند. به بیان ساده ما از مخدوششدن شهرت حرفهایمان میترسیم.
ترس از قضاوت دیگران: ما نگرانیم وقتی اساتید، همکاران یا مشتریانمان متوجه شوند از هوش مصنوعی برای کارمان استفاده کردهایم، تلاشهایمان را نادیده بگیرند.
بسیاری از مردم از اینکه دیگران آنها را بابت استفاده از هوش مصنوعی قضاوت کنند، نگراناند
البته این قضاوت میتواند از درک نادرست آنها از قابلیتهای هوش مصنوعی ناشی شود، ولی درهرحال طبق تحقیقات ۲۰ درصد از نیرو کار جوان، هنگام استفاده از هوش مصنوعی در محل کار خود با مشکل مواجه شدهاند و حتی ۲ درصد هم بهخاطر ChatGPT اخراج شدهاند.
پس این نگرانی اصلاً بیمورد نیست و لزوم آموزش و تعلیم بهتر در مورد استفاده مناسب و مؤثر از هوش مصنوعی در محل کار را آشکارتر میکند.
آیا هوش مصنوعی خلاقیت ما را نابود میکند؟
شاید یکی از مهمترین مسائلی که هنگام استفاده از هوش مصنوعی ما را نگران میکند، این باشد که آیا بهمرور زمان خلاقیتمان را از دست میدهیم؟
برای مثال تا قبل از رواج چتباتهای مشهور، موضوعات مورد نظرمان را در موتورهای جستوجو سرچ میکردیم. نتیجهای که موتور جستوجو به ما نشان میدهد غالباً ترکیبی از لینکهای مرتبط و نامرتبط است. در مقابل چتباتهای هوش مصنوعی مستقیماً پاسخ سؤال ما را میدهند و در تسریع کارها واقعاً مؤثرند.
هوش مصنوعی میتواند دانش اولیهی ما را در بعضی علوم بهبود دهد
اما هنگامی که نتایج سرچ گوگل را میبینیم، بسیاری از اوقات همین نتایج غیرمرتبط نیز به افکار ما بالوپر میدهد و جرقههای جدیدی در ذهنمان زده میشود. اگر پاسخ هر سؤالی را، با فرض درست بودن پاسخهای هوش مصنوعی، مستقیم و بهراحتی دریافت کنیم، خلاقیت ما افت پیدا میکند؟
به گفتهی متخصصان علوم روانشناختی، خلاقیت انسان را میتوان به دو نوع تقسیم کرد: هنگامی که برای اولینبار به چیزی فکر میکنیم، حتی اگر دیگران نیز به آن موضوع اندیشیده باشند.
نوع دوم زمانی رخ میدهد که ما به شیوهای منحصربهفرد خودمان به چیزی فکر میکنیم و لحظهای مانند «یافتم، یافتم» ارشمیدس را در ابعاد کوچک و بزرگ حس میکنیم.
استفادهی مداوم و عمومی از هوش مصنوعی، واقعاً در بلندمدت خلاقیت اصیل را کاهش میدهد
هوش مصنوعی میتواند بینش ما را در حوزههای مختلفی مانند زیستشناسی، تاریخ و ریاضیات بسط دهد و زمینه را برای بهبود ایدههای نوع اول مهیا کند؛ اما مدلهای هوش مصنوعی واقعاً فکر نمیکنند و به انتزاع پیچیدهی دادههای آماری متکی هستند. بهعبارتی، اگرچه مدلهای هوش مصنوعی قادرند ایدهها و تفکرات جدیدی را ما برانگیزند، بهواسطهی دادههای زیربنایی آموزشی خود، محدودیت دارند.
در این مبحث، خطری که کارشناسان به آن اشاره میکنند، «مارپیچ عمومی» نامیده میشود:
تصور کنید ما از هوش مصنوعی برای تولید محتوا (متن، تصویر، موسیقی و ویدیو) استفاده میکنیم. وقتی بسیاری از مردم از الگوهای مشابهی استفاده کنند، بهتدریج محتواهایی که منتشر میشود، یکنواخت و یکدست میشود؛ اما این محتوای یکنواخت بعداً مجدداً برای تعلیم هوش مصنوعی استفاده میشود و نسل بعدی هوش مصنوعی، محتوای یکدستتری تولید میکند و این چرخهی معیوب همچنان ادامه دارد.
پس واقعاً تولید محتوا با هوش مصنوعی خلاقیت واقعی و تنوع افکار را کاهش میدهد، همهچیز بهتدریج شبیه هم میشود و در طول زمان کمتر شاهد نوآوریهای اصیل و متفاوت خواهیم بود. با این حساب خطر کاهش خلاقیت، خطری واقعی است.
نگرانیهای اخلاقی هوش مصنوعی
شاید هرکدام از ما راهحل شخصیشدهی خودمان را در خصوص احساس گناه فردی ترجیح دهیم، اما نباید از نگرانیها و پرسشهای عمیقتری که در زمینهی پیامدهای بهکارگیری هوش مصنوعی وجود دارد، منحرف شویم.
اغلب مردم گسترهی کاربردهای هوش مصنوعی را دستکم میگیرند، چنان که ما در طول روز ناخواسته از بسیاری از این قابلیتها استفاده میکنیم. مسئلهی اخلاقیات هوش مصنوعی، فراتر از احساس مشهود ما است و به همین دلیل در سراسر جهان نشستهای زیادی درباره استفادهی اخلاقی از این فناوری برگزار میشود.
برای مثال، هوش مصنوعی در چه نقشهایی باید جایگزین انسان شود؟ چه اقداماتی برای حفاظت از دادههای شخصی و جلوگیری از نقض احتمالی حقوق بشر انجام میشود؟ این دادهها چگونه و با چه هدفی باید استفاده شوند؟
هوش مصنوعی میتواند پتانسیلهای کسبوکار شما را افزایش دهد، ولی به قوانین صریح و روشن نیاز دارد
احتمالاً به یاد دارید که سال ۲۰۲۳ استفاده از هوش مصنوعی باعث اعتصاب طیف وسیعی از نویسندگان جهان شد. پیش از ادامهی مطلب به این سؤال پاسخی منصفانه دهید: اگر هوش مصنوعی واقعاً بتواند فیلمنامه بنویسد، باید این کار را انجام دهد؟
هوش مصنوعی میتواند پتانسیلهای کسبوکار شما را افزایش دهد، ولی بدون وضع قوانینی روشن، با چالشهای سنگینی روبهرو خواهید شد.
جابهجایی شغلی
بیکار شدن نیروی کار و جایگزینشدن انسانها با هوش مصنوعی، مکرراً موضوع بسیاری از مباحثات این حوزه قرار میگیرد. به گزارش CompTIA بیش از ۸۱ درصد از کارمندان و کارگران در یک سال اخیر مقالاتی را خواندهاند که بر جایگزینشدن هوش مصنوعی با نیروی کار تمرکز دارند.
در همین مقاله آمده است که از هر ۴ کارمند، ۳ نفر در مورد تأثیر فرایندهای خودکار بر آیندهی شغل خود نگران هستند.
حریم خصوصی
مدلهای هوش مصنوعی با حجم عظیمی از دادهها آموزش میبینند که بخشی از آنها از اطلاعات قابلشناسایی شخصی است. درحالحاضر چگونگی جمعآوری، ذخیره و پردازش این دادهها بهروشنی مشخص نیست. چه کسی میتواند به این دادهها دسترسی داشته باشد و چگونه از آنها استفاده میکند؟
اما نکتهی دیگری که باعث نگرانی کارشناسان میشود، این است که سازمانهای اجرای قانون از هوش مصنوعی برای نظارت و ردیابی مظنونین و متهمان استفاده میکنند.
استفاده از هوش مصنوعی حتی برای ردیابی مظنونین، امکان نقض حریم خصوصی را فراهم میکند
گرچه در مثالهای مشهودی مانند پیداکردن یک قاتل سریالی، این موضوع ارزشمند بهنظر میرسد، ولی نگرانیهایی جدی در زمینهی سوءاستفاده از این قابلیتها در فضاهای عمومی و نقض حقوق فردی و حریم خصوصی وجود دارد.
سوگیری و تعصب
اگرچه هوش مصنوعی ذاتاً با تعصب همراه نیست، اما سیستمها با استفاده از دادههای منابع انسانی و یادگیری عمیق آموزش میبینند که میتواند به رواج تعصب منجر شود.
برای مثال اگر الگوریتم استخدام شرکتهای بینالمللی، با استفاده از دادههایی تعلیم ببیند که نسبت به نیروی کار خاورمیانهای سوگیری داشته باشد، میتواند گروه بزرگی از داوطلبان شایسته را از دایرهی استخدام حذف کند.
توضیح و تفسیر نتایج
واقعاً کافی نیست که شرکتهای مطرح، هوش مصنوعی خودشان را عرضه کنند و بعد به تماشای عملکرد آنها بنشینند. درک فرایند تصمیمگیری در برخی کاربردهای هوش مصنوعی اهمیت زیادی دارد، بهطور خاص به صنعت پزشکی و اجرای قانون فکر کنید.
چه کسی مسئول نتایج تصمیمهایی است که با هوش مصنوعی اتخاذ میشوند؟
حتی کارشناسان هم بهراحتی متوجه نمیشوند چرا هوش مصنوعی نتایج خاصی را ارائه میدهد و این امر میتواند پیامدهایی جدی برای جان انسانها بههمراه داشته باشد.
پاسخگویی
حضور فزایندهی هوش مصنوعی در تمام صنایع به این معنی خواهد بود که بسیاری از تصمیمها مستقیم یا غیرمستقیم با کمک ابزارهای AI اخذ میشود.
اگر این تصمیمها نتایجی منفی داشته باشند، چگونه باید مسئولیت خروجی آنها را مشخص کنیم؟ آیا شرکتها مسئول اعتبارسنجی الگوریتمهای ابزاری هستند که میخرند؟ یا باید به سازندگان ابزارهای هوش مصنوعی مراجعه کنند؟ اصلاً چگونه میتوان شرکتها و افراد را پاسخگو نگه داشت؟
دیپفیکها
شاید اوایل دیپفیکها سرگرمکننده بهنظر میرسیدند، اما حالا میتوانند قابلیت تشخیص صدا و چهره را دور بزنند و این امر نگرانیهای امنیتی خرد و کلانی در پی دارد. یکی از تحقیقات نشان میداد که یک API مایکروسافت در ۷۵ درصد مواقع توسط دیپفیکهایی که بهسادگی تولید میشوند، فریب میخورد.
استفاده از دیپفیکها برای تأثیرگذاری بر افکار عمومی پیامدهای تلخ و گستردهای به همراه خواهد داشت
چالشهای اخلاقی دیپفیکها کمی ترسناک بهنظر میرسد، مخصوصاً در رابطه با جعل هویت افراد. بهعلاوه استفاده از دیپفیکها برای تأثیرگذاری بر افکار عمومی (مثلاً در رقابتهای تجاری و سیاسی) پیامدهای گستردهای خواهد داشت.
برای مثال اگر کارشناسان بورس باتوجهبه یک ویدیوی غیرواقعی تصور کنند مدیرعامل یک شرکت قدرتمند تصمیمها یا اقدامات مشکوکی دارد، بیشک بازار سهام تحتتأثیر قرار میگیرد.
اطلاعات نادرست
موضوع مهم اطلاعات نادرستی را که توسط هوش مصنوعی تولید و بهسرعت فراگیر میشود، بیش از هرجا در شبکههای اجتماعی میبینیم.
مشکل اینجا است که سرعت وایرالشدن اطلاعات نادرست بهاندازهای زیاد است که بهسادگی نمیتوان منشأ آن را پیدا کرد. در مرحلهی بعد این اخبار جعلی واقعی به نظر میرسند، درحالیکه اینطور نیست و مبارزه با آن هم بهسادگی امکان ندارد.
سوءاستفاده از مالکیت معنوی
هنوز ماجرای شکایت گروهی از نویسندگان از اوپنایآی را به یاد داریم که مدعی بودند چت جیپیتی با استفاده از محتوای آنها تعلیم دیده است و این شرکت قائل به پرداخت کپیرایت محتوا نیست. در متن شکایت آمده بود که این امر توانایی امرار معاش نویسندگان را به خطر میاندازد.
همانطور که نگرانیم که هوش مصنوعی تا چند سال دیگر نیروی کار را بیکار کند، باید توجه داشته باشیم که حتی آموزش این مدلها نیز معیشت برخی افراد را دچار بحران میکند.
این موضوع درمورد هنرمندان نیز مصداق دارد. هوش مصنوعی میتواند سبکهای هنری را تقلید کند و این امر ارزش اقتصادی آثار اصلی را کاهش میدهد. هنرمندان معاصر احتمالاً درآمد و فرصتهای شغلی خود را از دست میدهند و امکان سوءاستفاده از میراثفرهنگی جوامع مختلف نیز وجود دارد.
تعلیم مدلهای هوش مصنوعی با آثار نویسندگان و هنرمندان، این اقشار را به لحاظ معیشت دچار مشکل خواهد کرد
هنگامی که مدلهای هوش مصنوعی با تصاویر نقاشیهای هنرمندان صاحبسبک تاریخ تعلیم میبینند و تصاویری به سبکهای درخواستی تولید میکنند، ارزشگذاری آثار هنری واقعی به چالشی بالقوه تبدیل میشود، ضمن اینکه ریسک یکسانسازی هم، همانطور که در بحث کاهش خلاقیت اشاره کردیم، بالا میرود.
از طرف دیگر حتی اگر شرکتهایی مانند متا و OpenAI مدعی شوند که کپیرایت هنرمندان و نویسندگان را رعایت میکنند، هر یک از خالقان محتواهای اصلی چگونه میتوانند خروجی مدلها را بررسی کنند؟
کاهش روابط اجتماعی
هوش مصنوعی پتانسیل بالایی برای ارائهی تجربیات شخصیسازیشده، براساس ترجیحات کاربران دارد و میتواند خدمات مشتریان را به نحو چشمگیری بهبود دهد.
اما روی دیگر این سکه کاهش همدلی اجتماعی است. اگر طبق روال کار الگوریتمهای AI، در شبکههای اجتماعی فقط پستهایی را ببینید که نظرات خودتان را تأیید و تقویت میکند؛ بهاحتمال کمتری ذهنیت باز را در خودتان پرورش میدهید و با دیگران مشارکت و همدلی میکنید.
الگوریتمهای هوش مصنوعی شبکههای اجتماعی، ذهنیت باز کاربران را تخریب میکنند
دومین مسئله به روابط دوستانه با چتباتهای هوش مصنوعی اشاره دارد که البته اساتید روانشناسی نظرات متفاوتی در این مورد دارند. برخی استدلال میکنند که وقت گذراندن با هوش مصنوعی بهعنوان یک همنشین در برخی شرایط مفید واقعی میشود و برخی نیز استدلال کاملاً متفاوتی دارند.
متعادلکردن اخلاق با رقابت
رقابتی که درحالحاضر بین غولهای فناوری و استارتاپهای مطرح هوش مصنوعی وجود دارد، باعث شده است موفقیت این بازیگران با «اول بودن» تعیین شود: چه کسی اولین فناوری، یا کاربرد خاص هوش مصنوعی را ارائه میکند؟ متأسفانه اغلب شرکتها زمان کافی برای اطمینان از ایمنی و طراحی اخلاقمدارانهی محصولات خود صرف نمیکنند.
هوش مصنوعی و محیطزیست: آنچه شرکتهای فناوری به ما نمیگویند
یکی دیگر از استدلالهایی که در زمینهی هوش مصنوعی مطرح میشود، به تأثیرات این فناوریها بر محیطزیست و منابع طبیعی اشاره دارد.
درحالیکه شرکتهای تولیدکنندهی گوشیهای موبایل، بسیاری از ویژگیهای جدید خود را مبتنی بر هوش مصنوعی ارائه میکنند، بهسختی میتوانیم ادعا کنیم که از این فناوریها استفاده نمیکنیم:
اپل اینتلیجنس در حالی دنیای فناوری را به شوروشوق آورد که گوگل تلاش میکند هوش مصنوعی را هرچه بیشتر در سیستمعامل اندروید بگنجاند و همهی کاربران خلاصههای هوش مصنوعی را بالای اغلب جستوجوهایی گوگل میبینند.
میزان انرژی و آب مصرفی برای تعلیم و پردازشهای هوش مصنوعی فراتر از تصور ما است
بهعلاوه OpenAI و متا در حال توسعهی موتورهای جستوجوی مبتنی بر هوش مصنوعی خود هستند و نرخ کاربران Perplexity هم روزبهروز افزایش مییابد.
ساشا لوچیونی، پژوهشگر هوش مصنوعی میگوید:
هوش مصنوعی -بهویژه هوش مصنوعی مولد- با شفافیت کم یا بدون هیچ شفافیتی به ما تحمیل میشود و صادقانه بگویم، مکانیسمهای انصراف یا وجود ندارند یا پیچیده هستند.
به همین دلیل حتی اگر در زمرهی افرادی باشیم که همین حالا هم حس خوبی نسبت به محتوای بیکیفیت هوش مصنوعی (که زودتر از تصوراتمان وب امروزی را بیارزش میکند) نداریم، بازهم بهطور غیرمستقیم در مسابقهی شرکتهای بزرگ حضور داریم.
هوش مصنوعی در اشکال مختلف خود به انرژی و آب زیادی برای کار نیاز دارد. شرکتهایی مانند مایکروسافت، اپل و گوگل قدمهایی در راستای قانعکردن اذهان عمومی برداشتهاند:
مثلاً مایکروسافت میگوید عملیات هوش مصنوعی در کامپیوترهای کوپایلت پلاس بهصورت محلی انجام میشود و اپل نیز همین ادعا را در مورد اپل اینتلیجنس دارد.
گوگل قصد دارد با سرمایهگذاری ۲۰ میلیارد دلاری پارکهایی را برای دیتاسنترهای هوش مصنوعی احداث کند که تمام انرژی مورد نظر خود را از منابع تجدیدپذیر تأمین میکند.
نتایج تحقیقات شائولی رن، استاد مهندسی دانشگاه کالیفرنیا ریورساید، به ما درک بهتری از میزان انرژی مصرفی هوش مصنوعی میدهد:
او پس از بررسی دادههای یکی از مطالعات اخیر مایکروسافت تخمین میزند که درخواست از ChatGPT برای نوشتن دو ایمیل ۲۰۰ کلمهای تقریباً بهاندازه انرژی مورد نیاز یک تسلا مدل ۳ برای طی کردن ۱٫۶ کیلومتر مسافت، برق مصرف میکند. پردازندههایی که این ایمیلها را تولید کردند بهدلیل تولید گرمای زیاد، به حدود چهار بطری نیم لیتری آب برای خنکشدن نیاز دارند.
به گزارش گلدمن ساکس مصرف برق مراکز داده، که محل اصلی پردازش هوش مصنوعی هستند، تا پایان این دهه ۱۶۰ درصد افزایش مییابد و انتشار دیاکسیدکربن بیش از دو برابر میشود.
همزمان میزان آب مورد نیاز نیز بهقدری افزایش خواهد یافت که تا سال ۲۰۲۷، عطش هوش مصنوعی میتواند معادل نیمی از برداشت سالانهی آب (میزان آبی که از محیطزیست خارج میشود و به مصرف نیازهای انسانی یا صنعتی میرسد) بریتانیا باشد.
البته تمامی این بررسیها با مطالعاتی مبتنی بر دادههای محدود صورت میگیرد، زیرا شرکتهای بزرگ فناوری که مهمترین سیستمهای هوش مصنوعی را میسازند، از جمله اپل، گوگل، مایکروسافت و OpenAI، دقیقاً نمیگویند مدلهایشان چقدر انرژی یا آب مصرف میکنند.
شائولی رن در این زمینه میگوید: «ما فقط به یک جعبهی سیاه نگاه میکنیم؛ چون هیچ ایدهای از مصرف انرژی برای تعامل با مدلهای زبانی بزرگ نداریم.»
برخی کارشناسان معتقدند ما کاربران نباید از این اتفاقات احساس گناه کنیم؛ ولی صرفنظر از اینکه هوش مصنوعی همهی مشکلات ما را حل کند یا همهی ما را نابود کند (یا هر دو!)، مسلماً به شفافسازی شرکتهای مطرح تکنولوژی نیاز داریم.
هوش مصنوعی آمده است که بماند: اگر از ابزارها و چتباتها بهعنوان دستیار استفاده میکنید، شاید بهتر باشد اعتبار کار دستیارتان را به او بدهید، همانطور که انتظار دارید دیگران اعتبار خلاقیت و تلاش شما را به رسمیت بشناسند.
برای مثال خوب است زیر تصاویری که با استفاده از هوش مصنوعی برای پستهای شبکههای اجتماعی یا وبلاگمان آمادهکردهایم، این موضوع را به مخاطبان اطلاع دهیم. هرچند شرکتهایی مانند OpenAI میگویند به فکر راهحلهایی هستند که تفاوت محتوای انسانی با هوش مصنوعی را روشن کند، ولی در وهلهی اول ما باید استفادهی سالمتری از این فناوریها داشته باشیم.
ما نمیتوانیم پیشبینی کنیم که هوش مصنوعی مولد با چه سرعتی رشد خواهد کرد. مثلاً مدلهای فعلی قدرت کدنویسی پیچیده را ندارند و شاید این موضوع در چند سال آینده تغییر کند. با این حال میتوانیم بهجای اینکه صرفاً در نقش مصرفکننده ظاهر شویم، روی بهبود تخصص و مهارتمان در استفادهی بهینه از ابزارها سرمایهگذاری کنیم.