۱۰ خط قرمز در استفاده از ChatGPT که نباید از آن عبور کنید

قبلاً به 10 مورد از خط قرمزهای استفاده از چت‌جی‌پی‌تی اشاره کردیم. حالا قرار است به 10 مورد دیگر از این خط قرمز‌ها اشاره کنیم. هوش مصنوعی و ابزارهایی مانند ChatGPT با سرعتی بی‌سابقه وارد زندگی روزمره ما شده‌اند. امروزه بسیاری از افراد از این چت‌بات برای نوشتن ایمیل، ترجمه متن و کارهای دیگر استفاده می‌کنند. این ابزارها اگر به‌درستی و در جای مناسب به‌کار بروند، می‌توانند بهره‌وری را بالا ببرند و بسیاری از کارهای تکراری و وقت‌گیر را ساده‌تر کنند.

اما یک نکته‌ی مهم را نباید فراموش کرد:
هیچ فناوری‌ای کامل نیست. ChatGPT هم همین‌طور.

با تمام قابلیت‌های این فناوری، استفاده نادرست یا بیش‌ازحد از آن می‌تواند پیامدهای جدی و گاهی جبران‌ناپذیری داشته باشد. در واقع یکی از بزرگ‌ترین چالش‌ها این است که چت‌جی‌پی‌تی می‌تواند با ظاهری بسیار علمی و منطقی، اطلاعاتی اشتباه، قدیمی یا حتی خطرناک ارائه دهد. اطلاعاتی که ممکن است شما را به تصمیمات پرهزینه و غلط هدایت کند.

آگاهی از محدودیت‌ها و خطرات بالقوه چت‌جی‌پی‌تی به اندازه مهارت استفاده از آن اهمیت دارد. تشخیص اینکه در چه شرایطی باید از چت‌جی‌پی‌تی استفاده کرد، می‌تواند تفاوت بین یک تصمیم درست و یک اشتباه بزرگ باشد.

در ادامه، ۱۰ مورد مهم را بررسی می‌کنیم که استفاده از چت‌جی‌پی‌تی در آن‌ها نه‌تنها مفید نیست، بلکه می‌تواند زیان‌بار یا حتی خطرناک باشد. شناخت این موارد به شما کمک می‌کند تا از این ابزار قدرتمند، هوشمندانه و مسئولانه‌تر استفاده کنید.

1. اطلاعات حساس شرکت

اگر گزینه‌ی جلوگیری از ذخیره‌سازی اطلاعات توسط ChatGPT را فعال نکرده باشید، هر چیزی که وارد پلتفرم کنید، ممکن است برای آموزش مدل زبان بزرگ (LLM) و هوش مصنوعی آن استفاده شود.

این یعنی اطلاعاتی که شاید متعلق به شما نباشد، بلکه مربوط به شرکتی است که در آن کار می‌کنید. نمونه‌هایی از افشای اطلاعات خصوصی شرکت‌ها از طریق ChatGPT قبلاً دیده شده است، مثل سامسونگ که امسال استفاده از این چت‌بات را در شرکت محدود کرد.

این شرکت شرکت به کارکنان هشدار داد که از ChatGPT استفاده نکنند، چون نشت اطلاعات امنیتی به دلیل اشتراک‌گذاری کد حساس شرکت توسط یکی از کارکنان رخ داده بود.

سامسونگ تنها نیست؛ شرکت‌های دیگری مثل اپل هم استفاده از ChatGPT را برای برخی کارکنان و بخش‌ها ممنوع کرده‌اند.

مسئول افشای اطلاعات حساس شرکت بودن می‌تواند باعث گفتگوی بسیار ناخوشایند با بخش منابع انسانی یا حتی اخراج شما شود.

2. اطلاعات شخصی

نام، آدرس، شماره تلفن، حتی نام اولین حیوان خانگی شما... همه‌ی این‌ها نباید وارد ChatGPT شود.

چنین اطلاعاتی می‌تواند سوءاستفاده شود تا شما را جعل کنند، و کلاهبرداران از آن برای نفوذ به حساب‌های خصوصی یا انجام کلاه‌برداری استفاده می‌کنند — که برای شما اصلاً خوب نیست.

پس وسوسه نشوید که داستان زندگی‌تان را در ChatGPT بنویسید و اگر می‌خواهید زندگی‌نامه خود را بنویسید، با دقت فکر کنید چه چیزی را به اشتراک می‌گذارید.

3. نام‌های کاربری و رمز عبور

تنها جایی که باید رمز عبور خود را بنویسید، همان اپلیکیشن یا سایتی است که به آن نیاز دارد. بهترین روش این است که رمزهای خود را در جایی بدون رمزگذاری ذخیره نکنید، چون این کار شما را آسیب‌پذیر می‌کند.

اگر نمی‌خواهید رمزهای عبور شما به صورت عمومی درآید، بهتر است از درخواست ذخیره کردن همه رمزها در ChatGPT خودداری کنید، یا از آن بخواهید رمزهای قوی‌تری به شما پیشنهاد دهد.

اگر رمزهای خود را فراموش می‌کنید (که همه ما این مشکل را داریم)، استفاده از یک مدیر رمز عبور خیلی کار را آسان می‌کند.

برای آزمایش امنیت رمزهای خود هم ابزارهای رایگان و امن زیادی وجود دارد.

4. گفتگوهای ChatGPT

بله، این یک تناقض است چون استفاده از ChatGPT یعنی صحبت کردن با آن، اما این موضوع نشان می‌دهد که وارد کردن هر چیزی به ChatGPT چقدر می‌تواند خطرناک باشد.

حتی درخواست‌های شما به ChatGPT ممکن است با دیگران به اشتراک گذاشته شود، و این در گذشته اتفاق افتاده است. اخیراً اشکالی رخ داده بود که کاربران می‌توانستند گفتگوهای دیگران را ببینند.

همچنین شواهدی وجود دارد که چت‌بات Bard گوگل گفتگوها را ایندکس کرده و در دسترس عموم قرار داده است.

هر دو شرکت قول داده‌اند مشکلات را رفع کنند، اما این نشان می‌دهد تکنولوژی چقدر سریع پیش می‌رود و هیچ چیزی، حتی درخواست‌های شما، کاملاً خصوصی نیست.

پس این موضوع را هر زمان که با یک چت‌بات گفتگو می‌کنید، به خاطر داشته باشید.

5. از ارسال محتوای خشونت‌آمیز یا تهدیدآمیز پرهیز کنید

حتی به شوخی هم از چت‌بات‌ها درباره موضوعات مربوط به خشونت، تهدید، یا نفرت‌پراکنی سؤال نکنید. بسیاری از سیستم‌های هوش مصنوعی این‌گونه محتواها را ثبت و در برخی موارد به مراجع قانونی گزارش می‌کنند. استفاده مسئولانه از ابزارهای هوش مصنوعی نه تنها به امنیت فردی شما کمک می‌کند، بلکه به ایجاد فضای سالم دیجیتال نیز یاری می‌رساند

6.  اطلاعات رزومه را پس از تکمیل محتوا اضافه کنید

اگر از چت‌بات برای ویرایش یا ساخت رزومه استفاده می‌کنید، بهتر است اطلاعات شخصی مانند نام، شماره تماس، ایمیل و سوابق شغلی حساس را ابتدا وارد نکنید. ابتدا ساختار و محتوای رزومه را با کمک چت‌بات ایجاد کرده و در پایان، اطلاعات واقعی خود را به آن اضافه کنید. این کار احتمال افشای ناخواسته اطلاعات شخصی را به حداقل می‌رساند.

7. از ارسال تصاویر شخصی یا خانوادگی خودداری کنید

در صورتی که چت‌بات از نوع تصویری باشد، از ارسال عکس‌های خانوادگی، کودکان یا خانه‌تان خودداری کنید. حتی اگر به قصد دریافت تحلیل یا نظر ارسال می‌کنید، کنترل بر نحوه استفاده یا ذخیره این تصاویر از دست شما خارج است.

8. در مورد عادات روزمره خود زیاد نگویید

مثلاً اینکه "هر روز ساعت ۶ صبح می‌دوم"، یا "جمعه‌ها همیشه خانه نیستم" ممکن است بی‌ضرر به نظر برسد، اما ترکیب این اطلاعات می‌تواند امنیت فیزیکی یا دیجیتال شما را تهدید کند.

9. پروفایل‌های شبکه‌های اجتماعی خود را لینک نکنید

هیچ‌وقت آدرس پروفایل اینستاگرام، لینکدین یا دیگر شبکه‌های اجتماعی را وارد چت‌بات نکنید. حتی اگر به قصد بهینه‌سازی رزومه یا تحلیل پروفایل کاری باشد، این کار می‌تواند موجب افشای هویت شما در فضاهای عمومی شود.

10. اطلاعات مربوط به کودکان را وارد نکنید

نام، سن، مدرسه یا فعالیت‌های فرزندان‌تان را وارد چت‌بات نکنید. اطلاعات مربوط به کودکان حساس‌تر از اطلاعات بزرگ‌سالان هستند و سوءاستفاده از آن‌ها خطرات جدی‌تری به دنبال دارد.

جمع‌بندی

چت‌بات‌ها ابزارهای فوق‌العاده‌ای هستند، اما اگر بدون دقت از آن‌ها استفاده کنید، ممکن است به امنیت شغلی، شخصی یا خانوادگی شما آسیب برسانند. با رعایت این ده نکته، می‌توانید از هوش مصنوعی بهره‌مند شوید، بدون آنکه حریم خصوصی‌تان به خطر بیفتد.