واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

مواردی که هرگز نباید به چت بات هوش مصنوعی بگویید!***

چت بات هوش مصنوعی این روزها در جنبه‌های مختلف کار و زندگی به کمک انسان آمده؛ اما اشتراک‌گذاری بیش از حد داده‌ها با آن خطرناک است.

مواردی که هرگز نباید به چت بات هوش مصنوعی بگویید!

به گزارش «تابناک» به نقل از گجت نیوز، چت‌بات‌های هوش مصنوعی مولد شگفت‌انگیزند، اما نمی‌توانیم وانمود کنیم که بی‌نقص‌ هستند. با افزایش استفاده از تکنولوژی هوش مصنوعی، بسیار مهم است که درک کنیم برخی اطلاعات حتما باید خصوصی باقی بمانند و هرگز با چت‌بات هوش مصنوعی به اشتراک گذاشته نشوند!

خطرات نقض حریم خصوصی در چت بات‌ هوش مصنوعی

چت‌بات‌هایی مانند چت‌ جی ‌پی ‌تی و جمنای گوگل بسیار محبوب هستند؛ زیرا می‌توانند پاسخ‌های شبیه به انسان تولید کنند. با این حال، وابستگی آن‌ها به مدل‌های زبان بزرگ یا LLM با خطرات حریم خصوصی و امنیتی همراه است. این آسیب‌پذیری‌ها نشان می‌دهند که چگونه اطلاعات شخصی در حین تعامل به اشتراک گذاشته می‌شود و در معرض سو استفاده قرار می‌گیرد.

شیوه‌های جمع‌آوری داده: چت‌بات‌های هوش مصنوعی از داده‌های آموزشی وسیعی استفاده می‌کنند که ممکن است تعاملات کاربران را در بر بگیرد. شرکت‌هایی مانند OpenAI به کاربران این امکان را می‌دهند که از جمع‌آوری داده‌ها انصراف دهند، اما تضمین کامل حریم خصوصی همچنان چالش‌برانگیز می‌ماند.

آسیب‌پذیری‌های سرور: داده‌های ذخیره‌ شده کاربران مستعد حملات هکری هستند و مجرمان سایبری ممکن است این اطلاعات را سرقت و برای اهداف مخرب از آن‌ها سو استفاده کنند.

دسترسی شخص ثالث: داده‌های تعامل کاربران با چت ‌بات هوش مصنوعی احتمالا با ارائه‌ دهندگان خدمات شخص ثالث به اشتراک گذاشته می‌شود یا پرسنل مجاز امکان دسترسی به آن‌ها را پیدا می‌کنند. این امر خطر نقض حریم خصوصی را افزایش می‌دهد.

عدم استفاده تبلیغاتی: در حالی که شرکت‌ها ادعا می‌کنند داده‌ها را برای مقاصد بازاریابی نمی‌فروشند، این داده‌ها برای نگهداری سیستم و اهداف عملیاتی به اشتراک گذاشته می‌شود.

نگرانی‌های مربوط به هوش مصنوعی مولد: منتقدان بر این باورند که پذیرش روزافزون هوش مصنوعی مولد ممکن است خطرات امنیتی و حریم خصوصی را تشدید کند.

اگر می‌خواهید در حین استفاده از ChatGPT و دیگر چت ‌بات‌های هوش مصنوعی از داده‌های خود محافظت کنید، ضروری است که خطرات حریم خصوصی مرتبط با این فناوری را بشناسید. شرکت‌هایی مانند OpenAI در برخی موارد شفافیت‌ و کنترل‌ فراهم می‌کنند، اما پیچیدگی‌های مربوط به اشتراک‌ گذاری داده‌ها و آسیب‌پذیری‌های امنیتی نیازمند هوشیاری بیشتر است.

برای اطمینان از حریم خصوصی و امنیت شما، پنج نوع داده کلیدی وجود دارد که نباید هرگز با چت ‌بات‌ هوش مصنوعی مولد به اشتراک گذارید. با گجت نیوز همراه شوید و با این داده‌ها آشنا شوید.

۱- جزئیات مالی

با استفاده گسترده از چت‌ بات‌های هوش مصنوعی، بسیاری از کاربران به این مدل‌های زبانی برای مشاوره مالی و مدیریت امور مالی شخصی روی آورده‌اند. چنین ابزارهایی می‌توانند اطلاعات مالی را افزایش دهند، اما آگاهی از خطرات بالقوه اشتراک‌ گذاری جزئیات مالی با چت‌بات‌ها هم اهمیت زیادی دارد.

هنگام استفاده از چت‌بات‌ها به‌عنوان مشاور مالی، شما خودتان را در معرض خطر فاش شدن اطلاعات مالی به مجرمان سایبری قرار می‌دهید. ممکن است مجرمان از آن‌ها برای خالی کردن حساب‌های بانکی سو استفاده کنند. علیرغم ادعای شرکت‌ها مبنی بر ناشناس ‌سازی داده‌های مکالمه، اشخاص ثالث و برخی از کارکنان ممکن است به این اطلاعات دسترسی پیدا کنند. به‌عنوان مثال، یک چت‌بات احتمال دارد عادت‌های هزینه‌ای شما را برای ارائه مشاوره تحلیل کند. اگر نهادهای غیرمجاز به این داده‌ها دسترسی پیدا کنند، می‌توانند برای طراحی تقلب‌ها و کلاهبرداری‌ها مانند ایمیل‌های فیشینگ که شبیه به بانک شما هستند، از آن‌ها بهره بگیرند.

به منظور محافظت از اطلاعات مالی خود، تعامل خود با چت‌بات‌های هوش مصنوعی را به اطلاعات عمومی و سوالات کلی محدود کنید. به اشتراک‌گذاری جزئیات خاص حساب، تاریخچه تراکنش‌ها یا رمزهای عبور می‌تواند شما را در معرض خطر قرار دهد. اگر به مشاوره مالی شخصی نیاز دارید، یک مشاور مالی دارای مجوز گزینه‌ امن‌تری خواهد بود.

۲- افکار شخصی و خصوصی

بسیاری از کاربران برای دریافت مشاوره روانشناسی به چت‌بات‌های هوش مصنوعی روی می‌آورند و از پیامدهای احتمالی آن برای سلامت روان خود آگاه نیستند. چت‌بات‌ها فاقد دانش دنیای واقعی هستند و تنها می‌توانند پاسخ‌های کلی به سؤالات مرتبط با سلامت روان ارائه دهند. بدین معنی که داروها یا درمان‌هایی که پیشنهاد می‌دهند ممکن است مناسب نیازهای ویژه شما نباشند و حتی به سلامت شما آسیب برسانند.

علاوه بر این، اشتراک‌گذاری افکار شخصی با چت‌بات‌های AI نگرانی‌های قابل توجهی در مورد حریم خصوصی ایجاد می‌کند. رازها و افکار صمیمی شما ممکن است به صورت آنلاین فاش شوند یا به‌عنوان بخشی از داده‌های آموزشی از آن استفاده کنند. افراد بدخواهی وجود دارند که از این اطلاعات برای جاسوسی از شما یا فروش داده‌هایتان در دارک وب سو استفاده می‌کنند. بنابراین، محافظت از حریم خصوصی افکار شخصی هنگام تعامل با چت‌بات‌ هوش مصنوعی بسیار مهم است.

چت‌بات‌های AI ابزارهایی برای اطلاعات عمومی و پشتیبانی هستند؛ نه جایگزینی برای درمان حرفه‌ای! اگر به مشاوره یا روان درمانی نیاز دارید، به یک متخصص تراپیست یا روانپزشک مراجعه کنید. آن‌ها می‌توانند راهنمایی‌های شخصی‌سازی‌شده و قابل اعتماد ارائه دهند و در عین حال حریم خصوصی و سلامت شما را در اولویت قرار دهند.

۳- اطلاعات محرمانه محل کار

یکی دیگر از اشتباهاتی که کاربران باید از آن اجتناب کنند، به اشتراک‌گذاری اطلاعات محرمانه مرتبط با کار هنگام تعامل با چت‌بات‌ هوش مصنوعی است. غول‌های فناوری معروف مانند اپل، سامسونگ و گوگل، کارمندان خود را از تعامل با چت‌بات‌های AI در محل کار منع کرده‌اند.

گزارشی از بلومبرگ به نمونه‌ای اشاره کرده که در آن کارمندان سامسونگ برای اهداف کدنویسی از چت‌ جی ‌پی ‌تی استفاده کرده و به طور ناخواسته کد حساس را به پلتفرم هوش مصنوعی مولد بارگذاری کردند. حادثه منجر به افشای اطلاعات محرمانه درباره سامسونگ شد و شرکت را وادار کرد تا استفاده از چت‌بات‌ را ممنوع کند. اگر از AI برای حل مشکلات کدنویسی (یا هر مشکل دیگری در محل کار) استفاده می‌کنید، نباید به آن‌ها به طور کامل اعتماد کنید و اطلاعات محرمانه را به اشتراک بگذارید.

به‌طور مشابه، بسیاری از کارمندان برای خلاصه ‌سازی صورت‌جلسات یا خودکار سازی وظایف تکراری به چت‌بات‌ هوش مصنوعی تکیه می‌کنند. چنین کاری می‌تواند خطر افشای غیرعمدی اطلاعات حساس را به همراه بیاورد. با آگاهی از خطرات مرتبط با اشتراک‌گذاری داده‌های مربوط به کار، می‌توانید از اطلاعات حساس محافظت کرده و سازمان خود را از نشت یا نقض داده‌ها به طور تصادفی ایمن کنید.

۴- رمزهای عبور در چت بات هوش مصنوعی

اشتراک‌گذاری رمزهای عبور خود به صورت آنلاین، حتی با مدل‌های زبان بزرگ هم کاملا ممنوع است. مدل‌های زبان بزرگ، داده‌ها را در سرورها ذخیره می‌کنند و فاش کردن رمزهای عبور خود به آن‌ها، حریم خصوصی شما را به خطر می‌اندازد.

موردی از نقض داده قابل توجه در ارتباط با چت ‌جی ‌پی‌ تی در ماه مه ۲۰۲۲ رخ داد که نگرانی‌هایی را در مورد امنیت پلتفرم‌های چت‌بات برانگیخت. علاوه بر این، ایتالیا ChatGPT را به دلیل قوانین حفاظت از داده‌های عمومی اتحادیه اروپا (GDPR) ممنوع کرد. نهادهای نظارتی ایتالیا این چت‌بات هوش مصنوعی را غیرقانونی از نظر تطابق با قوانین حریم خصوصی خواندند که خطرات نقض داده‌ها در این پلتفرم را برجسته می‌کند. هرچند این ممنوعیت مدت‌هاست که لغو شده، اما نشان می‌دهد که حتی با وجود تقویت تدابیر امنیتی داده‌ها از سوی شرکت‌ها، آسیب‌پذیری‌ها همچنان وجود دارند.

برای محافظت از اطلاعات ورود خود، هرگز آن‌ها را حتی برای رفع مشکلات فنی با چت‌بات‌ها به اشتراک نگذارید. وقتی به بازنشانی یا مدیریت رمزهای عبور نیاز دارید، از ابزارهای مدیریت رمز عبور اختصاصی یا پروتکل‌های امنیتی IT سازمان خود کمک بگیرید.

۵- جزئیات محل سکونت و سایر اطلاعات شخصی

مانند شبکه‌های اجتماعی و دیگر پلتفرم‌های آنلاین، نباید هیچ‌گونه اطلاعات شناسایی شخصی (PII) را با چت‌ بات‌ هوش مصنوعی به اشتراک بگذارید. اطلاعات هویتی و شخصی شامل داده‌های حساس مانند محل سکونت، کد ملی، تاریخ تولد و اطلاعات سلامتی است که مجرمان می‌توانند برای شناسایی یا پیدا کردن شما استفاده کند. برای مثال، ذکر تصادفی آدرس منزل خود هنگام درخواست از چت‌بات برای خدمات نزدیک می‌تواند شما را به طور ناخواسته در معرض خطر قرار دهد. اگر این داده‌ها دزدیده یا افشا شوند، احتمال دارد مجرمان از آن برای سرقت هویت یا پیدا کردن شما در دنیای واقعی استفاده کنند. به طور مشابه، به اشتراک‌گذاری بیش از حد در پلتفرم‌های یکپارچه با هوش مصنوعی مانند اسنپ‌چت، ممکن است به طور غیر عمدی اطلاعات بیشتری در مورد شما فاش کند.

نکته‌های کلیدی در تعامل با چت بات هوش مصنوعی

برای حفظ حریم خصوصی داده‌های خود هنگام تعامل با چت‌بات‌های هوش مصنوعی، رعایت برخی اصول کلیدی ضروری است:

با سیاست‌های حریم خصوصی چت‌بات‌ها آشنا شوید تا از خطرات مرتبط با آن‌ها اطلاع کسب کنید.

از پرسیدن سوالاتی که ممکن است به طور غیرعمدی هویت یا اطلاعات شخصی شما را فاش کند، خودداری کنید.

احتیاط کنید و از به اشتراک ‌گذاری اطلاعات پزشکی خود با چت‌بات‌ هوش مصنوعی دور بمانید.

هنگام استفاده از چت‌بات‌های AI در پلتفرم‌های اجتماعی مانند اسنپ‌چت، به آسیب‌پذیری‌های بالقوه داده‌های خود توجه داشته باشید.

چت‌بات‌های AI در بسیاری از موارد واقعا عالی هستند، اما در عین حال خطرات جدی حریم خصوصی را نیز به همراه دارند. محافظت از داده‌های شخصی خود هنگام استفاده از چت‌ جی ‌پی‌ تی، کوپایلوت، کلاود یا هر چت‌بات هوش مصنوعی دیگر چندان دشوار نیست. کافی است لحظه‌ای وقت بگذارید و فکر کنید اگر اطلاعاتی که به اشتراک می‌گذارید فاش شود، چه اتفاقی خواهد افتاد. سپس متوجه خواهید شد که باید در مورد چه موضوعاتی صحبت کنید و چه چیزهایی را پیش خود نگه دارید.

نظرات 0 + ارسال نظر
برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد