Symbolbild/Microsoft/Fotomneowin

Der US-Softwaregigant Microsoft hat die allgemeine Verfügbarkeit von Azure AI Content Safety innerhalb der Azure AI-Plattform angekündigt, die Sprach- und Bildgebungsmodelle verwendet, um Hass, Gewalt, sexuelle und selbstverletzende Inhalte zu erkennen. Wenn die Modelle potenziell schädliche Inhalte erkennen, markieren sie diese mit einem geschätzten Schweregrad. So können Unternehmen und Organisationen Microsoft zufolge den Dienst so anpassen, dass er Inhalte auf der Grundlage ihrer Richtlinien blockiert oder kennzeichnet.

Ursprünglich als Teil des Azure OpenAI Service eingeführt, ist Azure AI Content Safety nun ein eigenständiges System. Das bedeute, dass Anwenderunternehmen es sowohl für KI-generierte Inhalte aus Open-Source-Modellen und Modellen anderer Firmen als auch für nutzergenerierte Inhalte als Teil ihrer Content-Systeme nutzen können, was seinen Nutzen erweitere, so Microsoft.