افراد یک سازمان میتوانند به سرعت از Chat GPT و سایر مدلهای یادگیری زبانهای طبیعی برای انجام کارهایی مثل نویسندگی استفاده کنند. همه کارمندان به ChatGPT دسترسی دارند چون این کار نیاز به هیچ آموزش خاصی ندارد. در نتیجه، احتمال وقوع رخنههای امنیتی افزایش پیدا میکند.
از آنجایی که Chat GPT یک پلتفرم تازه تأسیس و رو به توسعه است، شناسایی و رفع خطرات این پلتفرم توسط برنامه نویسان نیاز به گذر زمان دارد. در حال حاضر بهترین راهکار برای مقابله با رخنههای اطلاعاتی، انجام کارهای پیشگیرانه است.
در این مقاله از escaniran توضیح میدهیم که ChatGPT چطور دادههای ورودی کاربران را ذخیره میکند و به اشتراک گذاشتن اطلاعات تجاری حساس مشاغل با این ابزار، چه خطراتی را به همراه دارد.
چگونگی مخاطرات اطلاعات با استفاده از ChatGPT
مدلهای پردازش زبانهای طبیعی مثل ChatGPT یا سایر مدلهای زبانی مشابه که بر اساس یادگیری ماشینی کار میکنند، با استفاده از مقدار زیادی داده متنی آموزش داده میشوند. ChatGPT با تحلیل این دادهها میتواند پاسخهایی تولید کند که شبیه به پاسخهای ایجاد شده توسط انسان به نظر میرسند.
ChatGPT همزمان با پردازش دادهها، یاد هم میگیرد. به اشتراک گذاشتن اطلاعات تجاری با ChatGPT میتواند اقدام خطرناکی باشد و اگر این اطلاعات تجاری مهم و حساس باشند، نگرانیهای مهمی در رابطه با امنیت سایبری ایجاد میشود.
فرض کنید که اطلاعات مربوط به درآمدها، کدهای اختصاصی یا مطالب مورد استفاده برای ارایههای داخلی در سازمان خودتان را با ChatGPT به اشتراک میگذارید در حالی که دیگران هم میتوانند فقط با سوال پرسیدن از ChatGPT، به این اطلاعات دسترسی پیدا کنند. استفاده از گوشی هوشمند برای تعامل با ChatGPT هم در صورت وجود رخنه امنیتی در گوشی، میتواند به افشای کل تاریخچه گفتگوهای شما با ChatGPT منجر شود.
آیا ChatGPT اطلاعات وارد شده توسط کاربران را ذخیره میکند؟
پاسخ این سوال کمی پیچیده است. ChatGPT دادههای به دست آمده از کوئریها را به صورت خودکار ذخیره نمیکند تا از آن ها برای پاسخ دادن به کوئریهای مشابه در آینده استفاده کند اما واقعیت این است که شرکت OpenAI سازنده این مدل زبانی بزرگ، به چنین اطلاعاتی دسترسی دارد.
ممکن است یک حمله سایبری باعث فاش شدن پایگاه داده حاوی کوئریهای ذخیره شده و آنچه ChatGPT فرا گرفته شود. هر چند هنوز حملات استنتاجی این چنینی بر علیه مدلهای بزرگ یادگیری زبان که ChatGPT بر اساس آنها ساخته شده، اتفاق نیوقتاده است.
OpenAI شرکت سازنده ChatGPT در راستای تلاش مستمر خودش برای محدود سازی دسترسی به دادههای شخصی و اطلاعات حساس مدلهای یادگیری زبان، در حال همکاری با شرکتهای دیگری است، اما این فناوری هنوز در ابتدای راه قرار دارد و خود ChatGPT همین زمستان سال پیش در دسترس عموم قرار گرفت.
ظرف دو ماه پس از عرضه ChatGPT تعداد کاربران این ابزار به بیش از 100 میلیون نفر رسیده و ChatGPT از نظر سرعت رشد، رکورد شکن شد. با توجه به سرعت بالای رشد و توسعه ChatGPT، قانون گذاران نتوانستند با سرعت این ابزار همگام شوند. با وجود تعداد بسیار زیاد کاربران ChatGPT، آسیبپذیریها و خلأهای امنیتی مختلفی در این ابزار مشاهده میشود.

تهدیدات هوش مصنوعی در کمین سازمان ها-min
ریسکهای به اشتراک گذاری دادههای تجاری با ChatGPT
بر اساس مطالعه انجام شده توسط دانشگاه استنفورد، اپل، گوگل، دانشگاه هاروارد و چند مؤسسه دیگر که نتایج آن در سال 2021 منتشر شده است. مدل یادگیری زبان GPT-2 که به Chat GPT شباهت دارد، قابلیت یادآوری اطلاعات حساس را از مقالات آموزشی دارد.
بر مبنای این مطالعه، GPT-2 میتواند دادههایی حاوی شناسه شخصی را دریافت کرده و به دنباله متون را به صورت دقیق تکرار کرده و در صورت درخواست، اطلاعات حساس بیشتری ارایه دهد. ممکن است هکرها بتوانند به دادههای مربوط به محققان یادگیری ماشینی دسترسی پیدا کرده و حق مالکیت معنوی آن ها را نقض کنند. این حملههای “استخراج دادههای آموزشی” میتوانند تهدید روزافزونی برای امنیت مدلهای یادگیری ماشینی باشند.
شرکت امنیت داده Cyberhaven گزارشی در رابطه با نقایص امنیتی Chat GPT منتشر کرده که به تازگی رفع شدهاند. بر مبنای این گزارش، Cyberhaven متوجه شده است که بیش از 67 هزار کارمند برای وارد کردن دادههای حساس خود در پلتفرم Chat GPT به روشهای ناامن اقدام کرده اند و خود پلتفرم Chat GPT از این اقدامات جلوگیری کرده است.
بر مبنای دادههای به دست آمده از این پلتفرم امنیتی، هر هفته مشاغل به طور میانگین صدها بار اطلاعات مهم و حیاتی خودشان را در اختیار ChatGPT قرار میدهند. اقدام کارمندان برای وارد کردن دادههایی مثل سورس کدها، دادههای محرمانه، اطلاعات بیماران یا مشتریان و اطلاعات تحت نظارت قانونی در این ابزار، نگرانیهای مهمی در زمینه امنیت سایبری ایجاد کرده است.
فناوری مورد استفاده کلینیکها برای برقراری ارتباط با بیماران، خصوصی و محرمانه است تا همیشه از دادههای بیماران حفاظت بشود. برخی کارشناسان بر این باورند که کلینیکهای پزشکی باید برای انتخاب بهترین تصمیمهای درمانی به تحلیلها و دادههای مفید و کاربردی دسترسی داشته باشند و در عین حال محرمانگی اطلاعات بیماران را حفظ کنند. ممکن است استفاده از ChatGPT باعث به خطر افتادن امنیت چنین اطلاعاتی شود.
به عنوان مثال میتوان به پزشکی اشاره کرد که نام و اطلاعات یکی از بیماران خودش را در ChatGPT وارد کرده و باعث شد که Chat GPT به شرکت بیمه در رابطه با این فرد و بیماری او اطلاع رسانی کند. حتی Chat GPT با استفاده از اطلاعات سند استراتژی سال 2023 یک شرکت، یک فایل ارایه پاورپوینت کامل تهیه کرده است.

هوش مصنوعی و حملات سایبری
خطرات نهان در اشتراک گذاشتن اطلاعات با ChatGPT
استفاده از Chat GPT میتواند باعث افشای دادهها شود اما میتوان برای حفاظت از دادهها از تدابیر پیشگیرانه خاصی استفاده کرد و بعضی شرکتها همین حالا هم اقدامات لازم را برای پیشگیری از نشت دادهها انجام دادهاند.
برای مثال جیپی مورگان به تازگی استفاده از Chat GPT را برای همه کارمندانش ممنوع کرده و مدعی شده که مشخص نیست چه اشخاصی،به چه علت و چقدر از ChatGPT استفاده میکنند. یک گزینه کلی این است که استفاده از Chat GPT کلا ممنوع اعلام شود اما با رشد و توسعه این ابزار، کسب و کارهای سطح جهان باید برای بهره برداری از این فناوری جدید طرحهای جدیدی ایجاد کنند.
در عوض، افزایش آگاهی کارمندان در رابطه با خطرات و ریسکهای بالقوه استفاده از Chat GPT، میتواند باعث محتاط تر شدن آن ها برای استفاده از این فناوری شود. مثلا Chat GPT به کارمندان آمازون هشدار داده که مراقب اطلاعاتی خود باشند. به کارمندان آمازون اعلام شده که از ارایه هر گونه اطلاعات هویتی از جمله نام، آدرس، شماره کارت بانکی و سمت خودشان در سازمان خودداری کرده و هیچ داکیومنتی را برای ChatGPT کپی و پیست نکنند.
البته محدود کردن اطلاعاتی که با Chat GPT به اشتراک میگذارید، اولین گام است. در گام بعد باید از یک نرمافزار ارتباطی امن استفاده کنید تا کنترل به اشتراک گذاری اطلاعاتتان را در اختیار داشته باشید. مثلا استفاده از یک API امن برای پیامرسان خود، این کار به حفاظت از دادههای شما در برابر جاسوس ها کمک میکند. میتوانید با اضافه کردن قابلیت گفتگوی امن به نرمافزارهای خودتان، یک تجربه گفتگوی غنی، روان و مهمتر از همه، امن ایجاد کنید.
سازمان ها باید برای پیشگیری از رخنههای اطلاعاتی خطرناک، آموزشهای جامعی در اختیار کارمندان قرار داده و سطح آگاهی آنها را افزایش دهند. همچنین کسب و کارها میتوانند برای انجام کارهای روزانه از جمله برقراری ارتباط با مشتریان و بیماران، نوشتن یادداشت و ایمیل، ایجاد فایلهای ارایه و پرداختن به نگرانیهای امنیتی، از ابزارها و نرمافزارهای جایگزین استفاده کنند.
شرکت پارس آوان در حوزه امنیت میتواند به شما مشاوره، راهکارهای امنیتی و آموزشهایی در جهت آگاهیبخشی پرسنل سازمانها بدهد. با دوره های آموزشی پارس آوان دیگر دغدغه حملات سایبری به سازمان خود را نخواهید داشت.
مدیران سازمان ها میتوانند با انتخاب یک پلتفرم یا نرمافزار تخصصی امنتر دارای قابلیتهایی مشابه، از بروز رخنههای امنیتی جلوگیری کنند. مثلا میتوان به جای استفاده از Chat GPT برای پیدا کردن آمار و اطلاعات فعلی شبکههای اجتماعی، از یک ابزار نظارت بر شبکههای اجتماعی استفاده کرد که قابلیت ثبت آماری مثل نرخ تعامل و اطلاعات مخاطبان را داشته باشد.