رسانه اینترنتی فانیلی

گوگل می‌گوید هوش مصنوعی جدیدش توانایی تشخیص احساسات را دارد

مدل‌های جدید هوش مصنوعی‌ گوگل با نام PaliGemma 2 روز پنج‌شنبه معرفی شدند و به‌ادعای گوگل، می‌توانند احساسات را تشخیص دهند.

مدل‌های هوش مصنوعی جدید گوگل به نام PaliGemma 2 روز پنج‌شنبه معرفی شدند. هوش مصنوعی جدید گوگل با دیدن اشخاص در تصاویر، احساسات آن‌ها را تشخیص می‌دهد، کپشن تولید می‌کند و به سؤالات کاربر نیز پاسخ می‌دهد.

به‌گزارش تک‌کرانچ، PaliGemma 2 کپشن‌های دقیقی تولید می‌کند و فراتر از شناسایی ساده‌ی اشیاء، به توصیف اعمال، احساسات و روایت کلی صحنه می‌پردازد؛ اما تشخیص احساسات به‌خودی خود فعال نیست و PaliGemma 2 برای تشخیص احساسات، نیاز به تنظیمات ویژه‌ای دارد. بااین‌حال، کارشناسان نسبت به احتمال وجود یک تشخیص‌دهنده‌ی احساسات، که در دسترس عموم قرار گیرد، نگران هستند.

ساندرا واچر، استاد اخلاق داده و هوش مصنوعی در مؤسسه‌ی اینترنت آکسفورد می‌گوید: «من این فرض را که می‌توانیم احساسات مردم را بخوانیم، نگران‌کننده می‌دانم. مثل این است که از یک توپ جادویی بخواهید تا به شما مشاوره‌ بدهد.»

استارتاپ‌ها و شرکت‌های بزرگ فناوری از سال‌ها پیش تلاش کرده‌اند هوش مصنوعی‌ای بسازند که بتواند احساسات را تشخیص دهد، فروش را آموزش دهد و از تصادفات پیشگیری کند. برخی ادعا می‌کنند که به هدفشان دست یافته‌اند، اما علم در این زمینه روی پایه‌های سست تجربی استوار است.

بیشتر تشخیص‌دهنده‌های احساسات، از نظریه‌ی اولیه‌ی پل اکرمن، روان‌شناس معروف، بهره می‌برند؛ مطابق نظریه‌ی اکرمن، انسان‌ها ۶ احساس بنیادی مشترک دارند: خشم، شگفتی، تنفر، لذت، ترس و غم. بااین‌حال، مطالعات بعدی، فرضیه‌ی اکرمن را زیر سؤال می‌برند و ثابت می‌کنند که تفاوت‌های عمده‌ای در نحوه‌ی ابراز احساسات افراد از زمینه‌های مختلف وجود دارد.

میک کوک، پژوهشگر دانشگاه کین ماری و متخصص هوش مصنوعی، باور دارد تشخیص احساسات در حالت کلی ممکن نیست، زیرا افراد درک احساسات خود را به‌صورت پیچیده‌ای تجربه می‌کنند. ما فکر می‌کنیم می‌توانیم احساسات دیگران را با نگاه کردن به آن‌ها دریابیم و بسیاری از مردم نیز در طول سال‌ها همین کار را کرده‌اند؛ مانند سازمان‌های جاسوسی یا شرکت‌های بازاریابی. نتیجه‌ای که چندان غافل‌گیرکننده نیست، این است که سیستم‌های تشخیص احساسات معمولاً غیرقابل‌ اعتماد هستند و تحت‌تأثیر پیش‌فرض‌های طراحان خود قرار دارند. کارهای اخیر نیز نشان می‌دهند که مدل‌های تحلیل احساسات به چهره‌های افراد سیاه‌پوست نسبت‌ به چهره‌های افراد سفیدپوست، احساسات منفی‌تری را نسبت می‌دهند.

گوگل می‌گوید که آزمون‌های گسترده‌ای برای ارزیابی تعصبات جمعیتی در PaliGemma 2 انجام داده؛ اما این شرکت فهرست کامل معیارهایی را که استفاده کرده یا نوع آزمون‌هایی را که انجام داده، ارائه نکرده است.

تنها معیاری که گوگل ارا‌ئه کرده، FairFace است؛ مجموعه‌ای شامل ده‌ها هزار عکس چهره که غول آمریکایی ادعا می‌کند PaliGemma 2 در آن نمره‌ی خوبی به‌دست آورد؛ اما برخی از محققان این معیار را به‌عنوان یک معیار تعصبی مورد انتقاد قرار می‌دهند و خاطرنشان می‌کنند که FairFace تنها چند گروه نژادی را نمایندگی می‌کند.

هیدی خلاف، دانشمند ارشد هوش مصنوعی در مؤسسه‌ی AI Now که به بررسی تأثیرات اجتماعی هوش مصنوعی می‌پردازد، باور دارد که تفسیر احساسات موضوعی بسیار شخصی است و تحقیقات نشان داده‌اند که نمی‌توانیم احساسات را فقط از روی ویژگی‌های چهره استنباط کنیم.

بخش اصلی قوانین هوش مصنوعی در اتحادیه‌ی اروپا، مدارس و کارفرمایان را از به‌کارگیری ابزارهای تشخیص احساسات منع می‌کند (به‌جز سازمان‌های اجرای قانون). بزرگ‌ترین نگرانی درباره‌ی مدل‌های باز مانند PaliGemma 2، این است که مورد سوءاستفاده قرار بگیرند و آسیب‌هایی جدی وارد کنند.

مقاله‌های مرتبط
  • فیلسوف مشهور هوش مصنوعی: چت‌بات‌های امروزی به درجه‌ای از احساسات رسیده‌ است
  • وقتی هوش مصنوعی احساس شما را بداند، چه اتفاقی می‌افتد؟

گوگل درمورد خطرات ناشی از انتشار PaliGemma 2 اطمینان می‌دهد که ارزیابی‌های زیادی از نظر اخلاقی و امنیت، به‌خصوص در زمینه‌ی امنیت کودکان و محتوا انجام داده‌ است. گوگل باور دارد نوآوری مسئولانه یعنی شما از روز اول که آزمایش را شروع می‌کنید به عواقب آن فکر کنید و این کار را در طول چرخه‌‌ی عمر یک محصول ادامه دهید.

با دوستان خود به اشتراک بگذارید

تازه ترین مطالب
فرهنگی هنری,ورزشی,گردشگری,آموزشی

تازه ها

رویدادهای ویژه

به زودی رویدادهای ویژه در این مکان برای شما قابل نمایش خواهد بود.