Podczas pracy nad generatorem landing page zintegrowanym z AI zauważyłem coś, co można porównać do znalezienia igły w stogu siana – albo raczej do igły, która przemyka bokiem, bo stóg nie został wystarczająco przeszukany. Testując swoją aplikację, trafiłem na problem z moderowaniem treści przy użyciu Moderation API od OpenAI.
Na przykład, wygenerowałem stronę w języku angielskim i wplotłem w nią kilka polskich słów. Efekt? Typowy „pstryk” – API przepuściło tekst, a moje polskie „kwiatki” o jednoznacznym charakterze seksualnym ominęły radar super AI. Wygląda na to, że Moderation API jest trochę jak dev w nowym języku – świetnie radzi sobie z „Hello world”, ale jak przyjdzie zahaczyć o wielowątkowość to się mu appka psuje.
Dlaczego tak się dzieje?
Choć API imponuje skutecznością w wykrywaniu nieodpowiednich treści w języku angielskim, to mieszanie języków w tekście może go wyprowadzić w pole. Wielojęzyczność? Cóż, w tym przypadku API wciąż „uczy się życia”. W moim przykładzie frazy w języku polskim, które bez dwóch zdań powinny zostać oflagowane, zostały zupełnie zignorowane.
Moje rozwiązanie
Nie zamierzałem siedzieć z założonymi rękami, jak moderator przy piwie. Wprowadziłem dodatkową warstwę walidacji opartą na słowach kluczowych w kilku językach, takich jak polski, angielski i inne. Taki mały, ale skuteczny „upgrade” w walce z problematycznymi treściami. Trochę pracy, ale teraz żadne mieszane języki nie zaskoczą mojego generatora.
Wnioski:
- Moderation API to solidne narzędzie, ale jeśli tekst wygląda jak „Rosyjska ruletka językowa” – AI może polec. Wielojęzyczne dane wymagają więcej uwagi.
-
Algorytmy walidacji? Stara, dobra znajomość regexp wciąż potrafi uratować dzień. Tak, wiem, brzmi to staromodnie, ale czasem zastosowanie tablicy słów kluczowych działa najlepiej.
A Ty?
Pracujesz z wielojęzycznymi danymi? Może i Tobie zdarzyły się „dziury” w moderacji treści? Daj znać w komentarzach – wszyscy lubimy historie, które zaczynają się od „a myślałem, że to się nie zdarzy”.
Dodaj komentarz