Een van de toepassingen van AI die het meeste gebruikt worden, en die dan ook het snelst groeien, is het creëren van modellen die bedrijven kunnen inzetten om hun klanten te helpen bij hun ondersteuning, bij de verkoop, en andere functies. Maar toch blijft er nog altijd een risico wanneer zij die chatbot daarvoor inzetten. Het testen en opvolgen van wat die chatbot allemaal uitsteekt vraagt een intensieve studie, door gespecialiseerde "red" teams.
Maar kleinere bedrijven hebben meestal niet de middelen en/of het personeel om hiervoor een speciaal team in dienst te nemen. Daarop speelt Microsoft in met een aankondiging die Chief Product Responsible AI, Sarah Bird, verleden week met The Verge deelde. Namelijk dat klanten van de Azure-clouddienst die het zich niet kunnen veroorloven om een eigen red team te hebben dat de AI kan testen, voortaan gebruik kunnen maken van nieuwe tools van Microsoft die ervoor moeten zorgen dat de AI veilig is voor gebruik bij interactie met hun klanten.
We hadden het verleden week al heel kort hierover, nu volgen wat meer details.
-Prompt Shields: die blokkeren kwaadwillige prompts, die een LLM moeten foppen zodat die ongewenste informatie gaat verspreiden. -Groundedness Detection: die zorgt ervoor dat de LLM niet gaat hallucineren, en dus foute informatie gaat verspreiden. -Safetey Evalutations: die gaan op zoek naar zwakke plekken in het model.
Binnenkort zouden deze tools uitgebreid worden met een tool die de modellen moeten aansporen om veilige outputs te geven, en een tweede die mogelijk problematische gebruikers gaat opsporen en markeren.
Deze beveiligingsmaatregelen zitten meteen in de GPT-4 en de LLama 2 modellen, en kunnen ook toegepast worden in de kleinere modellen die door Azure ondersteund worden.
https://www.theverge.com/2024/3/28/24114664/microsoft-safety ...
|