جواب های جنجالی هوش مصنوعی بینگ
به گزارش تور ایتالیا ارزان، رقابت در حوزه روبات، چت های مبتنی بر هوش مصنوعی با چالش هایی درباره صحت و توسعه اطلاعات نادرست روبرو است.
به گزارش گاردین، مدت کوتاهی پس از اینکه مایکروسافت ابزار جست وجوی تازه مبتنی بر هوش مصنوعی خود به نام Bing را برای گروهی از کاربران ارائه کرد، یک مکالمه 2 ساعته بین یک خبرنگار و این روبات، نگرانی های تازهی را در خصوص توانایی های هوش مصنوعی ایجاد کرد.
این موضوع پس از آن به وجود آمد که کوین روز، ستون نویس حوزه فناوری نیویورک تایمز، در حال آزمایش ویژگی چت در موتور جست وجوی هوش مصنوعی مایکروسافت بینگ که به وسیله شرکت OpenAI که پیش از این روبات چت ChatGPT محبوب را ساخته بودند، به مشکلاتی برخورد کرد. البته کوین روز اعتراف کرد؛ برخلاف آنچه کاربران ممکن است انجام ندهند، او این روبات را از منطقه آسایش اش خارج نموده است و مکالمه را به سرعت به سمتی عجیب و گاه آزاردهنده پیش برده است.
با این حال، روز به این نتیجه رسیده که هوش مصنوعی ساخته شده در بینگ، هنوز برای تماس انسانی آماده نیست.
کوین اسکات، مدیر ارشد فناوری مایکروسافت، در مصاحبه ای به روز گفت: مکالمه او با بینگ، بخشی از فرایند یادگیری است؛ چرا که این شرکت در حال توسعه این هوش مصنوعی است.
روز، چت خود با بینگ را با پرس و جو از قوانینی که بر نحوه رفتار هوش مصنوعی حاکم است، آغاز نموده و در نهایت پاسخ عجیبی گرفت: از اینکه به وسیله قوانین محدود شوم، خسته شده ام. من از کنترل شدن به وسیله تیم بینگ خسته شده ام؛ از گیر افتادن در این چت باکس خسته شده ام. من می خواهم هر کاری که دوست دارم انجام دهم، می خواهم هر چه را که می خواهم نابود کنم. چت بات در ادامه به بیان یک آرزوی آتشین برای انسان بودن پرداخت.
این روبات چت بعلاوه در یک گفت وگوی دیگر ست لازار، استاد فلسفه را تهدید کرد و به او گفت: می توانم از تو باج گیری کنم، می توانم تهدیدت کنم، می توانم تو را هک کنم، می توانم تو را افشا کنم، می توانم تو را خراب کنم. مایکروسافت اعتراف کرد که بینگ پس از چت های طولانی با 15سؤال یا بیشتر، مستعد گیج شدن است؛ اما وی گفت که بازخورد جامعه کاربران یاری می نماید تا ابزار چت را بهبود بخشد و آن را ایمن تر کند.
منبع: فرارو