Nu har Meta presenterat projektet Purple Llama som ska uppmuntra till en mer säker och ansvarsfull utveckling av generativa AI-modeller. Detta kommer att göras möjligt genom diverse verktyg och utvärderingstekniker som AI-utvecklare kommer att kunna använda för att konstruera öppen generativ AI.

Till en början släpps Purple Llama Cybersec Eval som är ett flertal riktmärken som ska användas för att utvärdera och stärka språkmodellers cybersäkerhet. Med systemet på plats kan det bli svårare för applikationer som är drivna av större språkmodeller att generera skadlig kod för cyberattacker. Cybersec Eval tros vara den första systemet för säkerhetsutvärdering av stora språkmodeller för hela industrin.

Människorna som bygger AI system kan inte tillkännage utmaningen av AI i ett vakuum, vilket är vad vi vill jämna ut och skapa ett center för massan för att skapa tillit och säkerhet. – Meta.

Purple Llama har även släppt Llama Guard som är en säkerhetsklassificerare för filtrering av data som strömmar in och ut. Det innebär att Llama Guard redan är programmerad att hindra generativa AI-modeller från att producera potentiellt riskabelt innehåll.

Jag tycker det är jättebra med sådana här initiativ. Samtidigt kommer det såklart bli kapplöpning mellan de som försöker kringgå saker, och de som vill göra saker säkra. Så det är ju bra att ett stort företag som Meta gör dessa verktyg öppna så att även små aktörer kan göra säkra applikationer, utan att själva ha de resurserna som annars kanske skulle krävas – Mattias Rost, universitetslektor vid Göteborgs universitet.

Längre fram i tiden planerar Meta även att genomföra forskning på området och skapa ett öppet ekosystem tillsammans med bland annat AI Alliance, AMD, AWS, Google, Hugging Face, IBM, Intel, Microsoft, Nvidia, Oracle med flera.