کشف آسیب‌پذیری گسترده در سیستم‌های یادگیری ماشینی

کشف صدمه‌پذیری گسترده در سیستم‌های یادگیری ماشینی_سیاه پوش


نوشته و ویرایش شده توسط مجله سیاه پوش

تحلیل‌های تازه مشخص می کند که سیستم‌های یادگیری ماشینی متن‌باز در معرض تهدیدات امنیتی بیشتری نسبت به سیستم‌های بالغ‌تر همانند DevOps یا سرورهای وب می باشند. با افزایش منفعت گیری از یادگیری ماشینی در صنایع گوناگون، نیاز به ایمن‌سازی سیستم‌های یادگیری ماشینی زیاد حیاتی شده است چون صدمه‌پذیری‌ها می‌توانند تبدیل دسترسی غیرمجاز، نقض داده‌ها و اختلال در عملیات شوند.

به نقل از سرویس امنیت رسانه اخبار فناوری تکنا به نقل از JFrog ، پروژه‌های یادگیری ماشینی همانند MLflow ناظر افزایش صدمه‌پذیری‌های بحرانی بوده‌اند. در چند ماه قبل، JFrog 22 صدمه‌پذیری در ۱۵ پروژه متن‌باز یادگیری ماشینی کشف کرده است. از جمله این صدمه‌پذیری‌ها، دو دسته برجسته خواهد شد: تهدیدهایی که مؤلفه‌های سمت سرور را مقصد قرار خواهند داد و خطرات افزایش امتیازات در چارچوب‌های یادگیری ماشینی.

صدمه‌پذیری‌هایی که توسط JFrog شناسایی شده‌اند، مؤلفه‌های کلیدی که زیاد تر در گردش کارهای یادگیری ماشینی منفعت گیری خواهد شد را تحت تأثیر قرار خواهند داد و این کار می‌تواند به مهاجمان اجازه دهد تا از ابزارهایی که زیاد تر توسط متخصصان یادگیری ماشینی به علت انعطاف‌پذیری آن‌ها مورد مطمعن می باشند، سوء منفعت گیری کرده و به فایل‌های حساس دسترسی غیرمجاز اشکار کنند یا امتیازات خود را در محیط‌های یادگیری ماشینی افزایش دهند.

ادامه مطلب
ایالات متحده از کشف ذخایر عظیم لیتیوم در این کشور خبر داد

یکی از صدمه‌پذیری‌های برجسته مربوط به Weave، یک ابزار محبوب از Weights & Biases (W&B) است که به ردیابی و تجسم معیارهای مدل یادگیری ماشینی پشتیبانی می‌کند. صدمه‌پذیری پیمایش دایرکتوری WANDB Weave (CVE-2024-7340) به کاربران با امتیازات پایین اجازه می‌دهد تا به فایل‌های دلخواه در سراسر سیستم فایل دسترسی اشکار کنند.

این نقص به علت اعتبارسنجی نادرست ورودی زمان مدیریت مسیرهای فایل رخ می‌دهد و به مهاجمان اجازه می‌دهد تا به فایل‌های حساس همانند کلیدهای API ادمین یا دیگر اطلاعات محرمانه دسترسی اشکار کنند. این چنین نقضی می‌تواند تبدیل افزایش امتیازات و اعطای دسترسی غیرمجاز به منبع های به مهاجمان بشود و امنیت کل خط لوله یادگیری ماشینی را به خطر بیاندازد.

ادامه مطلب
منفعت گیری از موبایل‌های غیرهوشمند رویکرد تازه نوجوانان برای افت زمان منفعت گیری از گوشی هوشمند_سیاه پوش

ZenML، یک ابزار مدیریت خط لوله MLOps، نیز تحت تأثیر یک صدمه‌پذیری بحرانی است که سیستم‌های کنترل دسترسی آن را به خطر می‌اندازد. این نقص به مهاجمان با حداقل امتیازات اجازه می‌دهد تا مجوزهای خود را در ZenML Cloud افزایش دهند که یک استقرار مدیریت شده از ZenML است و در نتیجه به اطلاعات محدود شده از جمله اسرار محرمانه یا فایل‌های مدل دسترسی اشکار کنند.

قضیه کنترل دسترسی در ZenML سیستم را در معرض خطرات قابل توجهی قرار می‌دهد، چون افزایش امتیازات می‌تواند به مهاجم اجازه دهد تا خط لوله‌های یادگیری ماشینی را دستکاری کند، داده‌های مدل را جعل کند یا به داده‌های عملیاتی حساس دسترسی اشکار کند و در نتیجه بر محیط‌های تولیدی متکی بر این خط لوله‌ها تأثیر بگذارد.

صدمه‌پذیری جدی فرد دیگر به نام تزریق فرمان Deep Lake (CVE-2024-6507) در پایگاه داده Deep Lake یافت شده است – یک راه حل ذخیره‌سازی داده بهینه شده برای برنامه‌های هوش مصنوعی. این صدمه‌پذیری به مهاجمان اجازه می‌دهد تا با سوء منفعت گیری از نحوه مدیریت واردات مجموعه داده‌های خارجی توسط Deep Lake، دستورات دلخواه را اجرا کنند.

ادامه مطلب
کوالکام حق نوآوری خود را نگه داری کرد: آرم ناکامی خورد_سیاه پوش

به علت پاکسازی نادرست فرمان، یک مهاجم می‌تواند به طور بالقوه اجرای کد از راه دور را انجام دهد و امنیت هر دو پایگاه داده و هر برنامه متصل شده را به خطر بیاندازد.

یک صدمه‌پذیری قابل دقت نیز در Vanna AI، ابزاری برای تشکیل و تجسم پرس‌و‌جوی SQL با زبان طبیعی، یافت شده است. تزریق اعلان Vanna.AI (CVE-2024-5565) به مهاجمان اجازه می‌دهد تا کد مخرب را در اعلان‌های SQL تزریق کنند که این ابزار در ادامه آن را پردازش می‌کند. این صدمه‌پذیری که می‌تواند تبدیل اجرای کد از راه دور بشود، به بازیگران مخرب اجازه می‌دهد تا ویژگی تجسم SQL به نمودار Vanna AI را مقصد قرار دهند تا تجسم‌ها را دستکاری کنند، تزریق SQL انجام بدهند یا داده‌ها را خارج کنند.

Mage.AI، یک ابزار MLOps برای مدیریت خط لوله‌های داده، دارای چندین صدمه‌پذیری از جمله دسترسی غیرمجاز به پوسته، نشت فایل‌های دلخواه و بازدید‌های ضعیف مسیر است.

ادامه مطلب
گزارش جدیدی از فعالیت‌های کاوشگر یوتو ۲ چین در سطح ماه انتشار شد_سیاه پوش

این مسائل به مهاجمان اجازه می‌دهد تا کنترل خط لوله‌های داده را به دست بگیرند، پیکربندی‌های حساس را افشا کنند یا حتی دستورات مخرب را اجرا کنند. ترکیب این صدمه‌پذیری‌ها خطر افزایش امتیازات و نقض یکپارچگی داده‌ها را افزایش می‌دهد و امنیت و پایداری خط لوله‌های یادگیری ماشینی را به خطر می‌اندازد.

با کسب دسترسی ادمین به پایگاه داده‌ها یا رجیستری‌های یادگیری ماشینی، مهاجمان می‌توانند کد مخرب را در مدل‌ها جاسازی کنند و تبدیل تشکیل درهای پشتی شوند که زمان بارگذاری مدل فعال خواهد شد. این کار می‌تواند فرآیندهای پایین‌دستی را به خطر بیاندازد چون مدل‌ها توسط تیم‌های گوناگون و خط لوله‌های CI/CD منفعت گیری خواهد شد. مهاجمان این چنین می‌توانند داده‌های حساس را خارج کنند یا حملات مسموم‌سازی مدل را برای افت کارکرد مدل یا دستکاری خروجی‌ها انجام بدهند.

ادامه مطلب
ایلان ماسک به جستوجو گسترش نیرومندترین سیستم آموزشی هوش مصنوعی جهان_سیاه پوش

یافته‌های JFrog یک شکاف عملیاتی در امنیت MLOps را برجسته می‌کند. تعداد بسیاری از سازمان‌ها ادغام قوی از روشهای امنیتی AI/ML با استراتژی‌های گسترده‌تر امنیت سایبری ندارند و این کار علتایجاد نقاط کور بالقوه می‌بشود. با دقت به پیشرفت‌های قابل دقت صنعت در عرصه ML و AI، محافظت از چارچوب‌ها، مجموعه داده‌ها و مدل‌هایی که این نوآوری‌ها را تحکیم می‌کنند، از اهمیت بالایی برخوردار است.

دسته بندی مطالب

مقالات کسب وکار

مقالات فناوری

مقالات آموزشی

مقالات سلامتی