A mesterséges intelligencia biztonsági kockázatai egy új korszak kezdetén
Absztrakt :
Ma már egyértelmű, hogy a mesterséges intelligencia (MI) megváltoztatta a biztonsági helyzetet, ebből eredően a bűnözők lehetőségeit is, hiszen a rosszindulatú szereplők kezében az MI újabb lehetőséget teremt bűncselekmények elkövetésére. Már rendelkezésre állnak az Interpol és Europol által kiadott, bűnügyi helyzetet értékelő dokumentumok, hogy az MI már most milyen változásokat hozott a bűnözésben. Jelen tanulmány számba veszi egyrészről, hogy milyen kiberbűncselekmény-típusokban történt szintlépés az MI-megoldásoknak köszönhetően. Másrészről bemutatja, hogy a pszichológiai manipuláció tökéletesre fejleszthető a technológia használatával, evvel teret adva az átverések új generációjának, amikor már a biztonságtudatosság sem nyújt kellő védelmet. A deepfake módszer nemcsak a teljes megtévesztés lehetőségét hozza el, hanem a büntetőeljárásban is felveti a bizonyítékok felhasználhatóságának kérdését: hogyan lehet a kép- és hangfelvételek valódiságát, hitelességét biztosítani. A nagy nyelvi modellek előretörése lehetőséget ad a rossz szándékú szereplőknek biológiai fegyver előállítására is az MI biztonsági protokolljainak kijátszásával. Mindemellett a bűnözésben is kialakul az információs társadalomra jellemző megosztásos modell, amely a bűnelkövetés mint szolgáltatás metódusban követhető leginkább nyomon.
It is now clear that artificial intelligence (AI) has changed the security landscape and, consequently, the opportunities for criminals, as AI creates new opportunities for criminal actors in the hands of malicious actors. Criminal situation assessment documents issued by Interpol and Europol are already available, showing how AI has already changed crime. On the one hand, this study takes stock of the types of cybercrime that have been levelled up thanks to AI solutions. On the other hand, it shows how social engineering can be perfected using technology, creating space for a new generation of scams when security awareness is no longer sufficiently protective. The deepfake method not only brings about the possibility of complete deception, but also raises the question of the usability of evidence in criminal proceedings: how to ensure the authenticity and authenticity of video and audio recordings. The rise of large language models also gives malicious actors the opportunity to produce bioweapons by circumventing AI security protocols. In addition, the sharing model characteristic of the information society is also developing in crime, which can be best tracked in the method of committing crime as a service.