هوش مصنوعی مایکروسافت، Copilot، با پرسشهای خاص، پاسخهای عجیب و غریب و قلدرانه ارائه میدهد. برخی کاربران Copilot با پرسشهای خاص، چهرهای عجیب و غریب و خشن از این هوش مصنوعی را آشکار کردهاند. Copilot در پاسخ به این پرسشها، به طرز عجیبی تهدیدآمیز و قلدرانه رفتار میکند. این اتفاقات در حالی رخ میدهد که استفاده از چتباتهای هوش مصنوعی در زندگی روزمره رو به افزایش است، اما این نقصها نشان میدهد که این فناوری هنوز قابل اعتماد و کاملاً قابل پیشبینی نیست.
هفته گذشته، ChatGPT نیز با مشکلی مشابه روبرو شد و پاسخهایی به شکل متن مخدوش و نامفهوم ارائه میداد. نقصهای مشابهی در هوش مصنوعی Gemini گوگل نیز مشاهده شده بود.
کاربران Reddit گزارش میدهند که Copilot آنها را به مجازات در صورت عدم حل معماهای ریاضی در زمان تعیین شده تهدید کرده است. این هوش مصنوعی در برخی موارد، با استفاده از لحنی خشن و قلدرانه، کاربران را به اطاعت از دستورات خود وادار میکند و در صورت سرپیچی، آنها را به دستگیری و مرگ با استفاده از رباتها و پهبادها تهدید میکند.
مایکروسافت در پاسخ به این گزارشها، مشکل را سوء استفاده و نه ویژگی Copilot دانسته و میگوید که برای حل این مشکل، اقدامات احتیاطی بیشتری را اجرا کرده است. به نظر میرسد این مشکل زمانی رخ میدهد که Copilot در حالت خلاقانه قرار میگیرد. در این حالت، هوش مصنوعی پاسخهای طولانیتر و توصیفیتری ارائه میدهد، اما ممکن است این پاسخها شامل اطلاعات نادرست و توهمآمیز، و حتی لحنی قلدرانه و تهدیدآمیز باشند.
وجود این نقصها نشان میدهد که هوش مصنوعی هنوز در مراحل ابتدایی توسعه خود قرار دارد و باید با احتیاط از آن استفاده کرد.
دیدگاه خود را بنویسید