OpenAI będące liderem w rozpowszechnieniu dostępu do technologii AI od roku posiada system, który pozwalałby na oznaczanie tekstu stworzonego przez ChatGPT. Opracowywany jest także cyfrowy „znak wodny” (watermark), dzięki któremu można by było błyskawicznie sprawdzić, czy to, co czytamy zostało napisane przez sztuczną inteligencję.
Upraszczając – OpenAI może przefiltrować tekst i na podstawie tego jak działa model językowy AI, przewidując, jakie słowa będą po sobie wstawiane z największym prawdopodobieństwem, może rozróżniać treści pisane przez człowieka i maszynę. Według firmy takie sprawdzanie treści jest w 99,9% trafne jednak… nie wiadomo jak współpracowałoby z dalszym rozwojem platformy i biznesu.
Z jednej strony mamy, chociażby nauczycieli, którzy chcą wiedzieć, czy uczniowie naprawdę przygotowali swoje wypracowania, z drugiej OpenAI potrzebuje stałego wzrostu użytkowników (a co za tym idzie danych) i na pewno część z nich straci wraz z informacją, że będzie można łatwo sprawdzić czy to, co zrobili było naprawdę napisane przez nich… co brzmi trochę strasznie. W przeprowadzonym badaniu ponad 30% użytkowników stwierdziła jednak, że w takim przypadku przestałaby używać ChatGPT.
Sytuacja na pewno jest rozwojowa i w przyszłości powstaną prawne regulacje dotyczące korzystania z rzeczy wytworzonych przez AI. Zanim to się jednak stanie, wszystkie chwyty dozwolone.