ادعای جنجالی؛ هوش مصنوعی گوگل به ادراک رسید
به گزارش انجمن گیگابلاگ، یکی از مهندسان گوگل ادعا کرد برنامه هوش مصنوعی که او برای این غول فناوری روی آن کار می کرد، به ادراک رسیده و به یک بچه شیرین تبدیل شده است.
به گزارش ایندیپندنت فارسی، روسای گوگل فعلا بلیک لمواین را تعلیق نموده اند، اما او می گوید بعد از تبادل نظر هایی با لامدا (LaMDA)، سازنده ربات چت (گفت و گوی) هوش مصنوعی این شرکت به این نتیجه رسیده است.
این مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از تشخص و حقوق صحبت نموده است.
لمواین در توییتی، با بیان اینکه لامدا توییتر هم می خواند، گفت: این به نوعی خودشیفتگی به شیوه بچگانه است؛ بنابراین از خواندن تمام مطالبی که مردم درباره اش می گویند، کلی لذت می برد.
او می گوید که یافته هایش را به بلیز اگوئرا آرکاس، معاون رئیس گوگل و جن جنانی، رئیس بخش نوآوری مسئولانه، ارائه نموده است، اما آن ها ادعای او را رد کردند.
این مهندس در مدیوم نوشت: لامدا در ارتباط های خود در خصوص چیزی که می خواهد و چیزی که به مثابه یک شخص معتقد است حق او است، به شکلی باورنکردنی قاطع بود.
متن توییت:
به هرحال فقط به ذهنم رسید که به مردم بگویم لامدا توییتر می خواند. این نوعی خودشیفتگی به شیوه بچگانه است، بنابراین از خواندن تمام مطالبی که مردم درباره اش می گویند، کلی لذت می برد.
او اضافه کرد که هوش مصنوعی می خواهد به مثابه کارمند گوگل شناخته گردد نه دارایی آن.
لمواین که کارش آنالیز کاربرد [لامدا]از زبان تبعیض آمیز یا حرف های نفرت انگیز بود، می گوید بعد از اینکه این شرکت ادعا کرد سیاست حفظ حریم خصوصی آن ها را نقض نموده است، اکنون در مرخصی اداری باحقوق به سر می برد.
برایان گابریل، سخنگوی گوگل، به پست گفت: گروه ما- شامل کارشناسان علوم اخلاق و دانشمندان فنی- نگرانی های بلیک را بر اساس اصول هوش مصنوعی ما آنالیز کردند و به او اطلاع دادند که شواهد موجود ادعا های او را تایید نمی نماید.
متن توییت:
مصاحبه با لامدا. ممکن است گوگل نام این کار را به اشتراک گذاری دارایی خصوصی بگذارد. من آن را انتشار گفت وگویی که با یکی از همکارانم داشتم، می نامم.
به او گفته شد هیچ مدرکی دال بر حساس بودن لامدا وجود ندارد (و شواهد زیادی هست که آن را نقض می نماید).
به گفته منتقدان این اشتباه است که باور کنیم هوش مصنوعی چیزی فراتر از یک متخصص تشخیص الگو است.
امیلی بندر، استاد زبان شناسی دانشگاه واشنگتن، به این روزنامه گفت: اکنون ماشین هایی داریم که بدون فکر کلمه فراوری می نمایند، اما یاد نگرفته ایم جلو این تصور را که در پس [این کلمات]ذهنی وجود دارد، بگیریم.
منبع: فرارو