OpenAI twierdzi, że The New York Times manipulował wynikami ChatGPT
OpenAI twierdzi, że The New York Times manipulował wynikami ChatGPT w sprawie naruszenia praw autorskich. Pomimo zarzutów dotyczących korzystania z materiałów chronionych prawem autorskim do szkolenia swojego chatbota AI, OpenAI broni się, twierdząc, że The New York Times przedstawia jedynie jednostronną wersję wydarzeń.
W ramach pozwu przeciwko The New York Times, firma twierdzi, że ChatGPT może generować artykuły dosłownie, co może naruszać prawa autorskie. OpenAI reaguje, stwierdzając, że redakcja manipulowała zapytaniami, a modele OpenAI nie zachowują się zwykle tak, jak przedstawia to The New York Times. Gigant AI sugeruje, że publikacja mogła wybrać przykłady, aby wywołać wrażenie naruszenia praw autorskich przez ChatGPT. Dodatkowo OpenAI argumentuje, że artykuły były już starsze niż rok i pojawiły się na zewnętrznych stronach.
Istnieje możliwość, że model AI nauczył się tych treści z innej witryny. ChatGPT usunął już funkcję "Przeglądaj" około roku temu, co mogłoby zgadzać się z chronologią.
Mimo napięć, OpenAI nadal dąży do korzystnego partnerstwa z The New York Times oraz innymi firmami i publikacjami, aby wspierać rozwój i naukę swoich modeli AI. Jednak odpowiedź Timesa na sytuację sugeruje, że taka współpraca jest mało prawdopodobna.
OpenAI utrzymuje swoje stanowisko w kwestii korzystania z prac chronionych prawem autorskim, twierdząc, że, chociaż szanuje ograniczenia prawa autorskiego, treści chronione powinny podlegać zasadom użycia dozwolonego, ze względu na potrzebę korzystania przez modele AI z "ogromnej wiedzy ludzkiej".
Niestety OpenAI nie jest jedyną firmą oskarżaną o korzystanie z chronionych prawem autorskim treści. Inne firmy AI również stanęły przed zarzutami, gdy narzędzia AI odtworzyły dzieła sztuki i inne treści podobne do istniejących.
Przed rozstrzygnięciem sprawy przeciwko The New York Times, autorzy Nicholas Basbanes i Nicholas Gage oskarżyli również OpenAI o wykorzystanie ich dzieł do modeli GPT, domagając się odszkodowania. Choć suma ta nie dorównuje kwocie żądanej przez The New York Times, sytuacja pokazuje, że firmy AI muszą coraz bardziej przejrzystość w zakresie korzystania z danych szkoleniowych. W tym kontekście ustawa Transparency Act Model AI Foundation, która wymaga ujawniania źródeł danych, może przynieść korzyści większości twórców.