کشف صدمهپذیری گسترده در سیستمهای یادگیری ماشینی_سیاه پوش
نوشته و ویرایش شده توسط مجله سیاه پوش
تحلیلهای تازه مشخص می کند که سیستمهای یادگیری ماشینی متنباز در معرض تهدیدات امنیتی بیشتری نسبت به سیستمهای بالغتر همانند DevOps یا سرورهای وب می باشند. با افزایش منفعت گیری از یادگیری ماشینی در صنایع گوناگون، نیاز به ایمنسازی سیستمهای یادگیری ماشینی زیاد حیاتی شده است چون صدمهپذیریها میتوانند تبدیل دسترسی غیرمجاز، نقض دادهها و اختلال در عملیات شوند.
به نقل از سرویس امنیت رسانه اخبار فناوری تکنا به نقل از JFrog ، پروژههای یادگیری ماشینی همانند MLflow ناظر افزایش صدمهپذیریهای بحرانی بودهاند. در چند ماه قبل، JFrog 22 صدمهپذیری در ۱۵ پروژه متنباز یادگیری ماشینی کشف کرده است. از جمله این صدمهپذیریها، دو دسته برجسته خواهد شد: تهدیدهایی که مؤلفههای سمت سرور را مقصد قرار خواهند داد و خطرات افزایش امتیازات در چارچوبهای یادگیری ماشینی.
صدمهپذیریهایی که توسط JFrog شناسایی شدهاند، مؤلفههای کلیدی که زیاد تر در گردش کارهای یادگیری ماشینی منفعت گیری خواهد شد را تحت تأثیر قرار خواهند داد و این کار میتواند به مهاجمان اجازه دهد تا از ابزارهایی که زیاد تر توسط متخصصان یادگیری ماشینی به علت انعطافپذیری آنها مورد مطمعن می باشند، سوء منفعت گیری کرده و به فایلهای حساس دسترسی غیرمجاز اشکار کنند یا امتیازات خود را در محیطهای یادگیری ماشینی افزایش دهند.
یکی از صدمهپذیریهای برجسته مربوط به Weave، یک ابزار محبوب از Weights & Biases (W&B) است که به ردیابی و تجسم معیارهای مدل یادگیری ماشینی پشتیبانی میکند. صدمهپذیری پیمایش دایرکتوری WANDB Weave (CVE-2024-7340) به کاربران با امتیازات پایین اجازه میدهد تا به فایلهای دلخواه در سراسر سیستم فایل دسترسی اشکار کنند.
این نقص به علت اعتبارسنجی نادرست ورودی زمان مدیریت مسیرهای فایل رخ میدهد و به مهاجمان اجازه میدهد تا به فایلهای حساس همانند کلیدهای API ادمین یا دیگر اطلاعات محرمانه دسترسی اشکار کنند. این چنین نقضی میتواند تبدیل افزایش امتیازات و اعطای دسترسی غیرمجاز به منبع های به مهاجمان بشود و امنیت کل خط لوله یادگیری ماشینی را به خطر بیاندازد.
ZenML، یک ابزار مدیریت خط لوله MLOps، نیز تحت تأثیر یک صدمهپذیری بحرانی است که سیستمهای کنترل دسترسی آن را به خطر میاندازد. این نقص به مهاجمان با حداقل امتیازات اجازه میدهد تا مجوزهای خود را در ZenML Cloud افزایش دهند که یک استقرار مدیریت شده از ZenML است و در نتیجه به اطلاعات محدود شده از جمله اسرار محرمانه یا فایلهای مدل دسترسی اشکار کنند.
قضیه کنترل دسترسی در ZenML سیستم را در معرض خطرات قابل توجهی قرار میدهد، چون افزایش امتیازات میتواند به مهاجم اجازه دهد تا خط لولههای یادگیری ماشینی را دستکاری کند، دادههای مدل را جعل کند یا به دادههای عملیاتی حساس دسترسی اشکار کند و در نتیجه بر محیطهای تولیدی متکی بر این خط لولهها تأثیر بگذارد.
صدمهپذیری جدی فرد دیگر به نام تزریق فرمان Deep Lake (CVE-2024-6507) در پایگاه داده Deep Lake یافت شده است – یک راه حل ذخیرهسازی داده بهینه شده برای برنامههای هوش مصنوعی. این صدمهپذیری به مهاجمان اجازه میدهد تا با سوء منفعت گیری از نحوه مدیریت واردات مجموعه دادههای خارجی توسط Deep Lake، دستورات دلخواه را اجرا کنند.
به علت پاکسازی نادرست فرمان، یک مهاجم میتواند به طور بالقوه اجرای کد از راه دور را انجام دهد و امنیت هر دو پایگاه داده و هر برنامه متصل شده را به خطر بیاندازد.
یک صدمهپذیری قابل دقت نیز در Vanna AI، ابزاری برای تشکیل و تجسم پرسوجوی SQL با زبان طبیعی، یافت شده است. تزریق اعلان Vanna.AI (CVE-2024-5565) به مهاجمان اجازه میدهد تا کد مخرب را در اعلانهای SQL تزریق کنند که این ابزار در ادامه آن را پردازش میکند. این صدمهپذیری که میتواند تبدیل اجرای کد از راه دور بشود، به بازیگران مخرب اجازه میدهد تا ویژگی تجسم SQL به نمودار Vanna AI را مقصد قرار دهند تا تجسمها را دستکاری کنند، تزریق SQL انجام بدهند یا دادهها را خارج کنند.
Mage.AI، یک ابزار MLOps برای مدیریت خط لولههای داده، دارای چندین صدمهپذیری از جمله دسترسی غیرمجاز به پوسته، نشت فایلهای دلخواه و بازدیدهای ضعیف مسیر است.
این مسائل به مهاجمان اجازه میدهد تا کنترل خط لولههای داده را به دست بگیرند، پیکربندیهای حساس را افشا کنند یا حتی دستورات مخرب را اجرا کنند. ترکیب این صدمهپذیریها خطر افزایش امتیازات و نقض یکپارچگی دادهها را افزایش میدهد و امنیت و پایداری خط لولههای یادگیری ماشینی را به خطر میاندازد.
با کسب دسترسی ادمین به پایگاه دادهها یا رجیستریهای یادگیری ماشینی، مهاجمان میتوانند کد مخرب را در مدلها جاسازی کنند و تبدیل تشکیل درهای پشتی شوند که زمان بارگذاری مدل فعال خواهد شد. این کار میتواند فرآیندهای پاییندستی را به خطر بیاندازد چون مدلها توسط تیمهای گوناگون و خط لولههای CI/CD منفعت گیری خواهد شد. مهاجمان این چنین میتوانند دادههای حساس را خارج کنند یا حملات مسمومسازی مدل را برای افت کارکرد مدل یا دستکاری خروجیها انجام بدهند.
یافتههای JFrog یک شکاف عملیاتی در امنیت MLOps را برجسته میکند. تعداد بسیاری از سازمانها ادغام قوی از روشهای امنیتی AI/ML با استراتژیهای گستردهتر امنیت سایبری ندارند و این کار علتایجاد نقاط کور بالقوه میبشود. با دقت به پیشرفتهای قابل دقت صنعت در عرصه ML و AI، محافظت از چارچوبها، مجموعه دادهها و مدلهایی که این نوآوریها را تحکیم میکنند، از اهمیت بالایی برخوردار است.
دسته بندی مطالب