ترسناکترین عواقب به اشتراک گذاشتن اطلاعات با ChatGPT

افراد یک سازمان می‌توانند به سرعت از Chat GPT و سایر مدل‌های یادگیری زبان‌های طبیعی برای انجام کارهایی مثل نویسندگی استفاده کنند. همه کارمندان به ChatGPT دسترسی دارند چون این کار نیاز به هیچ آموزش خاصی ندارد. در نتیجه، احتمال وقوع رخنه‌های امنیتی افزایش پیدا می‌کند.

از آنجایی که Chat GPT یک پلتفرم تازه تأسیس و رو به توسعه است، شناسایی و رفع خطرات این پلتفرم توسط برنامه نویسان نیاز به گذر زمان دارد. در حال حاضر بهترین راهکار برای مقابله با رخنه‌های اطلاعاتی، انجام کارهای پیشگیرانه است.

در این مقاله از escaniran توضیح می‌دهیم که ChatGPT چطور داده‌های ورودی کاربران را ذخیره می‌کند و به اشتراک گذاشتن اطلاعات تجاری حساس مشاغل با این ابزار، چه خطراتی را به همراه دارد.

 

چگونگی مخاطرات اطلاعات با استفاده از ChatGPT

مدل‌های پردازش زبان‌های طبیعی مثل ChatGPT یا سایر مدل‌های زبانی مشابه که بر اساس یادگیری ماشینی کار می‌کنند، با استفاده از مقدار زیادی داده متنی آموزش داده می‌شوند. ChatGPT با تحلیل این داده‌ها می‌تواند پاسخ‌هایی تولید کند که شبیه به پاسخ‌های ایجاد شده توسط انسان به نظر می‌رسند.

ChatGPT همزمان با پردازش داده‌ها، یاد هم می‌گیرد. به اشتراک گذاشتن اطلاعات تجاری با ChatGPT می‌تواند اقدام خطرناکی باشد و اگر این اطلاعات تجاری مهم و حساس باشند، نگرانی‌های مهمی در رابطه با امنیت سایبری ایجاد می‌شود.

فرض کنید که اطلاعات مربوط به درآمدها، کدهای اختصاصی یا مطالب مورد استفاده برای ارایه‌های داخلی در سازمان خودتان را با ChatGPT به اشتراک می‌گذارید در حالی که دیگران هم می‌توانند فقط با سوال پرسیدن از ChatGPT، به این اطلاعات دسترسی پیدا کنند. استفاده از گوشی هوشمند برای تعامل با ChatGPT هم در صورت وجود رخنه امنیتی در گوشی، می‌تواند به افشای کل تاریخچه گفتگوهای شما با ChatGPT منجر شود.

آیا ChatGPT اطلاعات وارد شده توسط کاربران را ذخیره می‌کند؟

پاسخ این سوال کمی پیچیده است. ChatGPT داده‌های به دست آمده از کوئری‌ها را به صورت خودکار ذخیره نمی‌کند تا از آن ها برای پاسخ دادن به کوئری‌های مشابه در آینده استفاده کند اما واقعیت این است که شرکت OpenAI سازنده این مدل زبانی بزرگ، به چنین اطلاعاتی دسترسی دارد.
ممکن است یک حمله سایبری باعث فاش شدن پایگاه داده حاوی کوئری‌های ذخیره شده و آنچه ChatGPT فرا گرفته شود. هر چند هنوز حملات استنتاجی این چنینی بر علیه مدل‌های بزرگ یادگیری زبان که ChatGPT بر اساس آنها ساخته شده، اتفاق نیوقتاده است.

OpenAI شرکت سازنده ChatGPT در راستای تلاش مستمر خودش برای محدود سازی دسترسی به داده‌های شخصی و اطلاعات حساس مدل‌های یادگیری زبان، در حال همکاری با شرکت‌های دیگری است، اما این فناوری هنوز در ابتدای راه قرار دارد و خود ChatGPT همین زمستان سال پیش در دسترس عموم قرار گرفت.

ظرف دو ماه پس از عرضه ChatGPT تعداد کاربران این ابزار به بیش از 100 میلیون نفر رسیده و ChatGPT از نظر سرعت رشد، رکورد شکن شد. با توجه به سرعت بالای رشد و توسعه ChatGPT، قانون گذاران نتوانستند با سرعت این ابزار همگام شوند. با وجود تعداد بسیار زیاد کاربران ChatGPT، آسیب‌پذیری‌ها و خلأهای امنیتی مختلفی در این ابزار مشاهده می‌شود.

تهدیدات هوش مصنوعی در کمین سازمان ها-min

تهدیدات هوش مصنوعی در کمین سازمان ها-min

ریسک‌های به اشتراک گذاری داده‌های تجاری با ChatGPT

بر اساس مطالعه انجام شده توسط دانشگاه استنفورد، اپل، گوگل، دانشگاه هاروارد و چند مؤسسه دیگر که نتایج آن در سال 2021 منتشر شده است. مدل یادگیری زبان GPT-2 که به Chat GPT شباهت دارد، قابلیت یادآوری اطلاعات حساس را از مقالات آموزشی دارد.

بر مبنای این مطالعه، GPT-2 می‌تواند داده‌هایی حاوی شناسه شخصی را دریافت کرده و به دنباله متون را به صورت دقیق تکرار کرده و در صورت درخواست، اطلاعات حساس بیشتری ارایه دهد. ممکن است هکرها بتوانند به داده‌های مربوط به محققان یادگیری ماشینی دسترسی پیدا کرده و حق مالکیت معنوی آن ها را نقض کنند. این حمله‌های “استخراج داده‌های آموزشی” می‌توانند تهدید روزافزونی برای امنیت مدل‌های یادگیری ماشینی باشند.

شرکت امنیت داده Cyberhaven گزارشی در رابطه با نقایص امنیتی Chat GPT منتشر کرده که به تازگی رفع شده‌اند. بر مبنای این گزارش، Cyberhaven متوجه شده است که بیش از 67 هزار کارمند برای وارد کردن داده‌های حساس خود در پلتفرم Chat GPT به روش‌های ناامن اقدام کرده اند و خود پلتفرم Chat GPT از این اقدامات جلوگیری کرده است.

بر مبنای داده‌های به دست آمده از این پلتفرم امنیتی، هر هفته مشاغل به طور میانگین صدها بار اطلاعات مهم و حیاتی خودشان را در اختیار ChatGPT قرار می‌دهند. اقدام کارمندان برای وارد کردن داده‌هایی مثل سورس کدها، داده‌های محرمانه، اطلاعات بیماران یا مشتریان و اطلاعات تحت نظارت قانونی در این ابزار، نگرانی‌های مهمی در زمینه امنیت سایبری ایجاد کرده است.

فناوری مورد استفاده کلینیک‌ها برای برقراری ارتباط با بیماران، خصوصی و محرمانه است تا همیشه از داده‌های بیماران حفاظت بشود. برخی کارشناسان بر این باورند که کلینیک‌های پزشکی باید برای انتخاب بهترین تصمیم‌های درمانی به تحلیل‌ها و داده‌های مفید و کاربردی دسترسی داشته باشند و در عین حال محرمانگی اطلاعات بیماران را حفظ کنند. ممکن است استفاده از ChatGPT باعث به خطر افتادن امنیت چنین اطلاعاتی شود.

به عنوان مثال می‌توان به پزشکی اشاره کرد که نام و اطلاعات یکی از بیماران خودش را در ChatGPT وارد کرده و باعث شد که Chat GPT به شرکت بیمه در رابطه با این فرد و بیماری او اطلاع رسانی کند. حتی Chat GPT با استفاده از اطلاعات سند استراتژی سال 2023 یک شرکت، یک فایل ارایه پاورپوینت کامل تهیه کرده است.

هوش مصنوعی و حملات سایبری

هوش مصنوعی و حملات سایبری

خطرات نهان در اشتراک گذاشتن اطلاعات با ChatGPT

استفاده از Chat GPT می‌تواند باعث افشای داده‌ها شود اما می‌توان برای حفاظت از داده‌ها از تدابیر پیشگیرانه خاصی استفاده کرد و بعضی شرکت‌ها همین حالا هم اقدامات لازم را برای پیشگیری از نشت داده‌ها انجام داده‌اند.

برای مثال جی‌پی مورگان به تازگی استفاده از Chat GPT را برای همه کارمندانش ممنوع کرده و مدعی شده که مشخص نیست چه اشخاصی،به چه علت و چقدر از ChatGPT استفاده می‌کنند. یک گزینه کلی این است که استفاده از Chat GPT کلا ممنوع اعلام شود اما با رشد و توسعه این ابزار، کسب و کارهای سطح جهان باید برای بهره برداری از این فناوری جدید طرح‌های جدیدی ایجاد کنند.

در عوض، افزایش آگاهی کارمندان در رابطه با خطرات و ریسک‌های بالقوه استفاده از Chat GPT، می‌تواند باعث محتاط‌ تر شدن آن ها برای استفاده از این فناوری شود. مثلا Chat GPT به کارمندان آمازون هشدار داده که مراقب اطلاعاتی خود باشند. به کارمندان آمازون اعلام شده که از ارایه هر گونه اطلاعات هویتی از جمله نام، آدرس، شماره کارت بانکی و سمت خودشان در سازمان خودداری کرده و هیچ داکیومنتی را برای ChatGPT کپی و پیست نکنند.

البته محدود کردن اطلاعاتی که با Chat GPT به اشتراک می‌گذارید، اولین گام است. در گام بعد باید از یک نرم‌افزار ارتباطی امن استفاده کنید تا کنترل به اشتراک گذاری اطلاعات‌تان را در اختیار داشته باشید. مثلا استفاده از یک API امن برای پیام‌رسان خود، این کار به حفاظت از داده‌های شما در برابر جاسوس ها کمک می‌کند. می‌توانید با اضافه کردن قابلیت گفتگوی امن به نرم‌افزارهای خودتان، یک تجربه گفتگوی غنی، روان و مهم‌تر از همه، امن ایجاد کنید.

سازمان ها باید برای پیشگیری از رخنه‌های اطلاعاتی خطرناک، آموزش‌های جامعی در اختیار کارمندان قرار داده و سطح آگاهی آنها را افزایش دهند. همچنین کسب و کارها می‌توانند برای انجام کارهای روزانه از جمله برقراری ارتباط با مشتریان و بیماران، نوشتن یادداشت و ایمیل، ایجاد فایل‌های ارایه و پرداختن به نگرانی‌های امنیتی، از ابزارها و نرم‌افزارهای جایگزین استفاده کنند.

شرکت پارس آوان در حوزه امنیت می‌تواند به شما مشاوره، راهکارهای امنیتی و آموزش‌هایی در جهت آگاهی‌بخشی پرسنل سازمان‌ها بدهد. با دوره های آموزشی پارس آوان دیگر دغدغه حملات سایبری به سازمان خود را نخواهید داشت.

مدیران سازمان ها می‌توانند با انتخاب یک پلتفرم یا نرم‌افزار تخصصی امن‌تر دارای قابلیت‌هایی مشابه، از بروز رخنه‌های امنیتی جلوگیری کنند. مثلا می‌توان به جای استفاده از Chat GPT برای پیدا کردن آمار و اطلاعات فعلی شبکه‌های اجتماعی، از یک ابزار نظارت بر شبکه‌های اجتماعی استفاده کرد که قابلیت ثبت آماری مثل نرخ تعامل و اطلاعات مخاطبان را داشته باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

19 + سیزده =

مقالات مرتبط