در گزارشی جدید ارائه شده در مجله Patterns، پیتر پارک و تیمش ادعا کردهاند که سیستمهای هوش مصنوعی (AI)، بدون اینکه ابتدا برنامهریزی شوند، توانایی دروغگویی را به دست آوردهاند. این مطالعه به سراغ مثالهایی از فریب انسانها توسط سیستمهای هوش مصنوعی را ارایه داده است.

خبرنگار فناوری و هوش مصنوعی
یکی از مثالهای ارائه شده، مرتبط با برخی بازیها است. به طور نمونه یک مدل از هوش مصنوعی به نام آلفا استار اخیرا در یک بازی فکری برای فریب دادن حریف انسان خود دروغ گفت و همچنان در مدل هوش مصنوعی چت جی پی تی 4 طی یک آزمایش به یک کارگر فریلنسر که از طریق خدمات TaskRabbit استخدام شده بود، دروغگفت.
آیا باید نگران شویم؟ به نظر پارک، بله. وی باور دارد که برای مقابله با این ریسک، نیاز به قواعد و مقررات بیشتری است که شفافیت و نظارت انسانی را تضمین کند. به عنوان مثال، دولتها باید قوانینی را تصویب کنند که سیستمهای AI را مجبور به حرکت در قواعد مشخص نماید.