Der PyPI-Paket von Mistral AI wurde durch bösartigen Code kompromittiert, der auf Entwickler-Zugriffsdaten abzielt

Laut Decrypt haben Angreifer bösartigen Code in das Software-Paket von Mistral AI eingeschleust, das über PyPI verteilt wurde. Wenn Entwickler das Paket auf Linux-Systemen verwenden, führt der schädliche Code automatisch aus, lädt eine Datei namens transformers.pyz von einem Remote-Server herunter und führt sie im Hintergrund aus. Der Dateiname imitiert die weithin genutzte Hugging Face Transformers-Bibliothek. Das Microsoft-Team für Bedrohungsintelligenz erklärte, dass die Schadsoftware in erster Linie Entwickler-Login-Daten und Zugriffstokens stiehlt. Mistral bestätigte, dass ein Rechner eines Entwicklers kompromittiert wurde, die Infrastruktur des Unternehmens jedoch nicht betroffen war.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare