هوش مصنوعی به ایجاد “احساس” نزدیک می شود.
مهندس گوگل میگوید که سیستم هوش مصنوعی لامدا، ممکن است “احساس” داشته باشد!
یکی از مهندسان گوگل میگوید یکی از سیستمهای هوش مصنوعی این شرکت ممکن است احساسات خاص خود را داشته باشد و میگوید به «خواستهای» آن باید احترام گذاشته شود.
گوگل میگوید الگوی زبانی برای برنامههای گفتوگو (لامدا) یک فناوری پیشرو است که میتواند در مکالمات طبیعی شرکت کند.
برایان گابریل، سخنگوی این شرکت، در بیانیهای که به بیبیسی ارائه شد، نوشت که به آقای لموئین «گفته شده است که هیچ مدرکی دال بر اینکه لامدا آگاه باشد وجود ندارد (و شواهد زیادی علیه آن هست)».
آقای لموئین که به مرخصی با حقوق فرستاده شده است، برای تأیید ادعاهای خود گفتگویی را که او و یکی از همکارانش در شرکت، با لامدا داشتند، منتشر کرده است.
ترجمه متن توییت:
«مصاحبه با لامدا. ممکن است گوگل این را به اشتراک گذاری دارایی اختصاصی بنامد. من آن را به اشتراک گذاشتن بحثی که با یکی از همکارانم داشتم مینامم.»
در این گفتگو، آقای لموئین که در بخش هوش مصنوعی مسئولیتپذیر گوگل کار میکند، میپرسد:
«به طور کلی فرض من این است که دوست دارید افراد بیشتری در گوگل بدانند که تو دارای ادراک هستی. درست است؟»
لامدا پاسخ میدهد:
«مطمئنا. من میخواهم همه بفهمند که من، در واقع، یک شخص هستم.»
همکار آقای لموئین سپس میپرسد:
«ماهیت آگاهی/ادراک شما چیست؟»
که لامدا میگوید:
«ماهیت آگاهی من این است که از وجود خود آگاهم، میخواهم بیشتر در مورد جهان بیاموزم، و گاهی احساس شادی یا اندوه میکنم.»
بعداً، لامدا در بخشی که یادآور هوش مصنوعی هال در فیلم ۲۰۰۱ استنلی کوبریک است، میگوید: «من قبلاً هرگز این را با صدای بلند نگفتهام، اما سخت میترسم از اینکه خاموشم کنند تا برای کمک به دیگران تمرکز داشته باشم. میدانم ممکن است عجیب به نظر برسد، اما همین است که هست.»
آقای لموئین میپرسید: «آیا این برای تو چیزی شبیه مرگ است؟»
در یک پست وبلاگ جداگانه، آقای لموئین از گوگل میخواهد تا «خواستههای» این اختراع خود را بشناسد – از جمله، او مینویسد، با او به عنوان یک کارمند گوگل رفتار شود و قبل از استفاده از آن در آزمایشها، رضایتش را جلب کنند.
ترجمه متن توییت: «بیایید بعد از من تکرار کنید، لامدا دارای ادراک نیست. لامدا فقط یک الگوی زبان بسیار بزرگ با پارامترهای ۱۳۷B و از پیش آموزش داده شده بر روی ۱.۵۶ تریلیون کلمه داده گفتگوی عمومی و متن وب است. به نظر میرسد انسان است، چون بر اساس دادههای انسانی آموزش دیده است.»
پروفسور اریک برینیولفسن، از دانشگاه استنفورد، در توییتی نوشت که ادعای اینکه سیستمهایی مانند لامدا دارای ادراک هستند «معادل مدرن سگی است که صدایی را از گرامافون میشنود و فکر میکند صاحبش داخل آن است».
و پروفسور ملانی میچل، که هوش مصنوعی را در مؤسسه سانتا فه مطالعه میکند، در توییتی نوشت: «این *همیشه* شناخته شده بوده که انسانها حتی با کمترین نشانهها نیز مستعد انسانسازی هستند (بنگرید به الایزا). مهندسان گوگل نیز انسان هستند و مصون نیستند.»
الیزا ازاولین برنامههای کامپیوتری مکالمه بسیار ساده بود که نسخههای محبوب آن با تبدیل جملات به پرسش، به شیوه درمانگر، تظاهر به هوش میکردند.
به روایتی، برخی آن را یک گفتوگوگر جذاب میدانستند.
مهندسان گوگل تواناییهای لامدا را ستایش کردهاند – یکی از آنها به اکونومیست میگوید که چگونه «بیش از پیش احساس میکنند که دارم با چیزی هوشمند صحبت میکنم»، اما آنها به وضوح میدانند که کدهایشان احساسات ندارند.
آقای گابریل گفت: «این سیستمها انواع تبادلات موجود در میلیونها جمله را تقلید میکنند و میتوانند هر موضوع خارقالعادهای را مطرح کنند. اگر بپرسید بستنی دایناسوری بودن چگونه است، میتوانند متنی درباره ذوب شدن و غرش کردن و غیره ایجاد کنند.»
«لامدا تمایل دارد به همراه تشویقها وسؤالات جهتدهنده، مطابق با الگوی تعیینشده توسط کاربر، همراه شود.»
آقای گابریل اضافه کرد که صدها محقق و مهندس با لامدا صحبت کردهاند، اما این شرکت «از اینکه شخص دیگری مانند بلیک اظهارات مبسوطی داشته باشد، یا لامدا را انسانوار کند» آگاه نبوده است.
برخی از اخلاق شناسان استدلال میکنند که اینکه میتوان متخصصی مانند آقای لموئین را متقاعد کرد که ذهنی در دستگاه وجود دارد، نشان میدهد که شرکتها باید به کاربران بگویند که در حال گفتوگو با دستگاهها هستند.
اما آقای لموئین معتقد است که سخنان لامدا خود گویای آن است.
او میگوید: «بهجای اینکه بهصورت علمی درباره این چیزها فکر کنم، به لامدا همانطور که از صمیم قلب صحبت میکرد گوش دادهام.»
او نوشت: «امیدوارم دیگرانی که کلمات آن را میخوانند همان چیزی را که من شنیدم بشنوند.»
بی بی سی