هوش مصنوعی مایکروسافت، Copilot، با پرسش‌های خاص، پاسخ‌های عجیب و غریب و قلدرانه ارائه می‌دهد. برخی کاربران Copilot با پرسش‌های خاص، چهره‌ای عجیب و غریب و خشن از این هوش مصنوعی را آشکار کرده‌اند. Copilot در پاسخ به این پرسش‌ها، به طرز عجیبی تهدیدآمیز و قلدرانه رفتار می‌کند. این اتفاقات در حالی رخ می‌دهد که استفاده از چت‌بات‌های هوش مصنوعی در زندگی روزمره رو به افزایش است، اما این نقص‌ها نشان می‌دهد که این فناوری هنوز قابل اعتماد و کاملاً قابل پیش‌بینی نیست.

هفته گذشته، ChatGPT نیز با مشکلی مشابه روبرو شد و پاسخ‌هایی به شکل متن مخدوش و نامفهوم ارائه می‌داد. نقص‌های مشابهی در هوش مصنوعی Gemini گوگل نیز مشاهده شده بود.

کاربران Reddit گزارش می‌دهند که Copilot آنها را به مجازات در صورت عدم حل معماهای ریاضی در زمان تعیین شده تهدید کرده است. این هوش مصنوعی در برخی موارد، با استفاده از لحنی خشن و قلدرانه، کاربران را به اطاعت از دستورات خود وادار می‌کند و در صورت سرپیچی، آنها را به دستگیری و مرگ با استفاده از ربات‌ها و پهبادها تهدید می‌کند.

مایکروسافت در پاسخ به این گزارش‌ها، مشکل را سوء استفاده و نه ویژگی Copilot دانسته و می‌گوید که برای حل این مشکل، اقدامات احتیاطی بیشتری را اجرا کرده است. به نظر می‌رسد این مشکل زمانی رخ می‌دهد که Copilot در حالت خلاقانه قرار می‌گیرد. در این حالت، هوش مصنوعی پاسخ‌های طولانی‌تر و توصیفی‌تری ارائه می‌دهد، اما ممکن است این پاسخ‌ها شامل اطلاعات نادرست و توهم‌آمیز، و حتی لحنی قلدرانه و تهدیدآمیز باشند.

وجود این نقص‌ها نشان می‌دهد که هوش مصنوعی هنوز در مراحل ابتدایی توسعه خود قرار دارد و باید با احتیاط از آن استفاده کرد.