DetectGPT ma pomóc w walce z nieuczciwymi praktykami w szkołach i na uczelniach, które zapewne z biegiem czasu za sprawą ChatGPT staną się coraz bardziej powszechne. To właśnie ta idea przyświecała badaczom z Uniwersytetu Stanforda, którzy stworzyli narzędzie pozwalające na wykrywanie treści wygenerowane przez chatbota OpenAI. Twórcy start-upu, w który zainwestował Microsoft, zapowiedzieli już, że zamierzają walczyć z łamaniem praw autorskich i planują ograniczyć wykorzystanie ChatGPT w niewłaściwych celach.
Niektóre szkoły już zakazały wykorzystania sztucznej inteligencji, a korzystanie z ChatGPT np. podczas wykonywania prac domowych przez uczniów będzie skutkowało negatywnymi konsekwencjami. Teraz z pomocą ma nadejść DetectGPT, który został zaprojektowany do wykrywania treści generowanych przez ChatGPT czy innych podobnych narzędzi.
ChatGPT (and others) generate very fluent (but not always truthful) text.
Some worry that teachers, news-readers (like you!), and society in general will be swamped with AI-generated content.
That’s why we built DetectGPT, a method for detecting if text comes from an LM. pic.twitter.com/5xEwzSkiLw
— Eric (@_eric_mitchell_) January 27, 2023
Póki co badacze z Uniwersytetu Stanforda nie opublikowali jeszcze zbyt obszernego opisu działania DetectGPT. Wiemy jedynie, że jego skuteczność to 95 procent, a rozwiązanie doczekało się wersji demo pozwalającej określić stopień prawdopodobieństwa tego, że sprawdzany tekst został przygotowany przez ChatGPT.
W przyszłości najpewniej wzrośnie zapotrzebowanie na rozwiązania pozwalające odróżnić treści napisane przez człowieka od wygenerowanych przez sztuczną inteligencję. Obecnie coraz więcej firm zapowiada inwestycje w rozwiązania zbliżone do ChatGPT. Niedawno informowaliśmy o tym, że Chińczycy będą korzystać z własnego modelu językowego już w marcu tego roku.