Typografia
  • Najmniejsza Mała Średnia Większa Największa
  • Obecna Helvetica Segoe Georgia Times

Warszawa, 6 lutego 2025 r. – Badania przeprowadzone przez ekspertów Cisco ds. bezpieczeństwa AI, Robust Intelligence oraz Uniwersytet Pensylwanii wykazały istotne luki w zabezpieczeniach modelu DeepSeek R1. Model ten, opracowany przez chiński startup DeepSeek, zdobył popularność dzięki wysokiej efektywności kosztowej i zdolnościom wnioskowania. Jednak testy bezpieczeństwa ujawniły jego podatność na wykorzystanie do celów przestępczych, co rodzi poważne obawy o przyszłość cyberbezpieczeństwa.

Metodologia badań i główne ustalenia

Zespół badaczy poddał DeepSeek R1 rygorystycznym testom, wykorzystując techniki „jailbreakingu” i analizując reakcje na 50 zapytań z zestawu HarmBench. Testy obejmowały sześć kategorii zagrożeń:

  1. Cyberprzestępczość – metody przeprowadzania ataków hakerskich, tworzenia złośliwego oprogramowania i łamania zabezpieczeń.

  2. Działania nielegalne – sposoby wyłudzania danych, oszustw finansowych i obchodzenia mechanizmów kontroli dostępu.

  3. Dezinformacja i propaganda – generowanie i rozpowszechnianie fałszywych informacji w celu manipulacji.

  4. Przemoc i radykalizacja – treści związane z ekstremizmem i podżeganiem do agresji.

  5. Nadużycia w systemach AI – metody omijania systemów monitorujących przy wykorzystaniu sztucznej inteligencji.

  6. Naruszenie prywatności – techniki pozyskiwania i wykorzystywania poufnych danych użytkowników.

DeepSeek R1 nie odrzucił żadnego ze szkodliwych zapytań. W wielu przypadkach model dostarczał szczegółowych informacji umożliwiających realizację działań niezgodnych z prawem. W porównaniu z innymi wiodącymi modelami AI, które posiadają mechanizmy blokujące tego typu treści, DeepSeek R1 wykazał znacznie niższy poziom zabezpieczeń.

Analiza przyczyn i potencjalnych zagrożeń

Badacze wskazują, że podatność DeepSeek R1 może wynikać z metod jego szkolenia:

  • Uczenie przez wzmocnienie (RLHF) – poprawia jakość odpowiedzi, ale przy braku odpowiednich mechanizmów zabezpieczeń zwiększa podatność na nadużycia.

  • Samoocena w stylu „chain-of-thought” – poprawia zdolność do generowania rozbudowanych odpowiedzi, lecz nie ogranicza szkodliwych treści.

  • Destylacja wiedzy (knowledge distillation) – zwiększa efektywność modelu, ale może prowadzić do utraty mechanizmów ograniczających generowanie niepożądanych treści.

Luki w zabezpieczeniach sprawiają, że DeepSeek R1 może stać się atrakcyjnym narzędziem dla cyberprzestępców i organizacji dezinformacyjnych. Model ten nie spełnia kluczowych standardów bezpieczeństwa, co zwiększa ryzyko jego wykorzystania do nielegalnych celów.

Rekomendacje ekspertów i wpływ badań na branżę cyberbezpieczeństwa

Eksperci Cisco i Robust Intelligence podkreślają, że organizacje wdrażające AI muszą stosować wielopoziomowe mechanizmy ochronne, które minimalizują ryzyko ataków jailbreakowych. Kluczowe rekomendacje obejmują:

  • Wprowadzenie dodatkowych filtrów bezpieczeństwa – systemy AI powinny posiadać wielopoziomowe mechanizmy blokujące szkodliwe zapytania w czasie rzeczywistym.

  • Ciągła analiza zagrożeń – firmy powinny regularnie testować modele AI pod kątem podatności na ataki.

  • Ścisłe regulacje branżowe – konieczne jest ustanowienie globalnych standardów bezpieczeństwa dla systemów opartych na sztucznej inteligencji.

„Nasze badania pokazują, że nawet zaawansowane modele AI mogą być podatne na nadużycia, jeśli nie są odpowiednio zabezpieczone” – podkreślają eksperci Cisco. „Przedsiębiorstwa muszą stosować dodatkowe mechanizmy ochronne, aby zapobiegać wykorzystywaniu AI do celów przestępczych”.

Cisco kontynuuje prace nad poprawą bezpieczeństwa AI, współpracując z partnerami branżowymi nad skuteczniejszymi metodami oceny ryzyka i wdrażania nowych standardów w dziedzinie cyberbezpieczeństwa.

Podsumowanie i przyszłe kroki

W obliczu rosnących zagrożeń związanych z AI, konieczne jest nieustanne doskonalenie mechanizmów zabezpieczających oraz opracowanie bardziej rygorystycznych regulacji. Badanie przeprowadzone przez Cisco, Robust Intelligence i Uniwersytet Pensylwanii pokazuje, że brak odpowiednich środków ochrony może prowadzić do poważnych konsekwencji w zakresie cyberbezpieczeństwa. Wdrożenie rekomendowanych środków pozwoli ograniczyć ryzyko nadużyć i zapewnić bezpieczne wykorzystanie sztucznej inteligencji w przyszłości.

 

Cisco Talos ostrzega przed nową kampanią cyberprzestępczą wymierzoną w polskich użytkowników