Generatywna AI - można czy nie można?
Czy możemy korzystać z generatywnej AI w naszej pracy i z czym będzie się to wiązało w przyszłości? To w dużej mierze będzie zależeć od wyniku kilku prawnych batalii, które niedawno się rozpoczęły - pisze Wojtek Kowalik, creative director, copywriter, przewodniczący jury Kreatura 2023.
Od mniej więcej roku sporo mówi się o generatywnej sztucznej inteligencji, w skrócie i po angielsku - Generative AI. Algorytmiczne cacka w postaci Chat GPT, Dall-E, Midjourney, Stable Diffusion czy Runway wyważyły bramy kreatywności i teraz każdy może napisać wiersz, stworzyć obraz czy krótką animację. Wystarczy umieć sklecić zdanie. Nie musi być nawet złożone czy gramatycznie poprawne.
Oczywiste jest, że w związku z powyższym rozgorzała dyskusja. Co teraz? Co dalej? Co z nami? Media społecznościowe zalały piękne, pełne soczystych kolorów portrety ludzi o pustym, bezdusznym spojrzeniu i niesprecyzowanej liczbie (i ułożeniu) palców oraz frazesy takie jak “AI Cię nie zastąpi; zastąpi Cię inny człowiek korzystający z AI” czy “AI to tylko narzędzie, z którego musimy nauczyć się korzystać”. Oczywistości. Ale to, czego w dyskursie publicznym praktycznie nie ma, to najbardziej banalny aspekt całej sprawy - czy w ogóle możemy korzystać z Generatywnej AI w naszej pracy i z czym będzie się to wiązało w przyszłości? To w dużej będzie zależeć od wyniku kilku prawnych batalii, które niedawno się rozpoczęły.
Zobaczyć przyszłość
Ale po kolei - aby zobaczyć przyszłość, najpierw trzeba zrozumieć przeszłość. W tym przypadku jest nie inaczej, więc przenieśmy się na chwilę kilka lat wstecz do Hamburga, w którym Christoph Schuhmann, nauczyciel fizyki w jednym z liceów, wraz z małą grupą poznanych na Discordzie entuzjastów AI stworzył pierwszą wersję datasetu o nazwie LAION. Dataset to nic innego jak arkusz zawierający linki do plików graficznych i opisów ich zawartości - LAION w najnowszej wersji 5B posiada tych linków aż 5,8 mld. I właśnie na podstawie LAION-5B działają wszystkie znane i lubiane generatywne modele AI - Midjourney, Stable Diffusion czy Dall-e 2 — LAION-5B po prostu jest największy, niekomercyjny oraz ma charakter oddolny (nie jest rezultatem inicjatyw biznesowych czy politycznych), a więc przynajmniej w teorii powinien być bezpieczny. Problem jednak pojawia się, kiedy zdamy sobie sprawę z tego, że autorów podlinkowanych w nim prac nikt nigdy nie pytał o zgodę, czy chcą, aby jakakolwiek sztuczna inteligencja uczyła się i inspirowała ich twórczością. Do tego doszło powszechne (błędne) przekonanie, że generatywna AI kopiuje grafikę (piksel po pikselu), w rezultacie tworząc coś w rodzaju cyfrowych kolaży i afera gotowa.
Kilka miesięcy temu powstała strona Haveibeentrained.com, za pośrednictwem której twórcy mogą sprawdzić, czy ich prace zostały uwzględnione w datasecie LAION-5B oraz, jeśli uznają to za stosowne, wybrać opcję opt-out, która oznacza mniej więcej tyle co wyrażenie braku zgody na wykorzystywanie ich prac w procesach treningowych AI. Do tej pory 1,4 mld plików zostało oznaczonych w ten sposób.
Przed spaleniem czarownicy
Mniej więcej w tym samym czasie za oceanem ruszyło kilka dużych spraw sądowych - Getty Images pozwało Stability AI oraz grupa twórców zbiorowo pozwała Stability AI, Midjourney oraz Deviant Art (które stworzyło własny dataset złożony z prac umieszczonych w ich serwisie). W międzyczasie pojawił się pozew przeciwko Microsoftowi, GitHub oraz Open AI dotyczący rzekomego nielegalnego wykorzystania fragmentów kodu w celu nauki generatywnej AI zajmującej się tworzeniem oprogramowania, ale wszytko wskazuje na to, że ten pozew utknął w martwym punkcie.
Wszystkie te pozwy powstawały na podstawie błędnego założenia, że grafiki wygenerowane przez AI są cyfrowymi kolażami. Otóż nie, nie są. Generatywna AI nie kopiuje ani jednego piksela. Proces treningu generatywnej AI polega na studiowaniu (czyli oglądaniu obrazków i czytaniu ich opisów) w taki sam sposób, w jaki każdy z nas uczy się, wchłaniając dobra kultury w galeriach, muzeach czy z książek. Różnica tkwi w mocy obliczeniowej. Ale czy aby nie jest tak, że owo błędne założenie wystarczy, aby zdusić rozwój generatorów grafik, tekstu, kodu, czy obecnie już nawet muzyki i animacji? Chciałbym wierzyć, że ludzie odpowiedzialni za tworzenie aktów legislacyjnych będą kierować się wiedzą, zrozumieniem tematu, logiką i rozumem - natomiast doświadczenie mówi mi, że nie zawsze tak jest i jednak dość często przeważa chęć “spalenia czarownicy”. I niestety w tym właśnie kierunku zmierzamy. Niedawno zapadł wyrok w sprawie między Amerykańskim Urzędem ds. Praw Autorskim a Stephenem Thalerem, który pozwał decyzję wyżej wymienionego urzędu o odmowie przyznania mu praw autorskich do grafiki wygenerowanej przez generator AI o nazwie Creative Machine. Sąd przychylił się do decyzji urzędu, a swoją decyzję argumentował tym, że “do zaistnienia prawa autorskiego niezbędna jest obecność autorska człowieka”, której w tym przypadku według sądu nie było.
Będzie strajk?
Obecna sytuacja jest dość niezręczna. Z jednej strony wszyscy wiemy, że tej rewolucji nie da się zatrzymać. Z drugiej strony na horyzoncie pojawiają się pierwsze - dość niezręczne - próby uregulowania generatywnej AI i toczą się sprawy sądowe. Nie wykluczam, że w pewnym momencie może dojść do jakichś gwałtowniejszych ruchów społecznych na wzór strajku scenarzystów w Stanach Zjednoczonych.
Temat generatywnej AI w biznesie — a zwłaszcza jej obecności w marketingu — wydaje się "wisieć w limbo". Biznes nie lubi niepewności. Jakakolwiek możliwość wystawienia się, czy to na oskarżenie o pogwałcenie czyichś praw autorskich, czy to na wykorzystanie grafik przez konkurencję (skoro nie można ich bronić prawami autorskimi to, kto komu zabroni?), jak dotąd zdaje się powodować pewną powściągliwość wśród marketerów, nawet jeśli jest to strzelanie z armaty do komara. Potencjalnie dobrym wyjściem byłoby stworzenie etycznych data setów, w których wszystkie uwzględnione prace znalazłyby się za zgodą twórców, takie “fair trade data sets”. Ale to ciągle pieśń melodia przyszłości.
Oczywiście wykorzystywanie prac wygenerowanych przez AI “wewnętrznie” - na potrzeby na przykład prezentacji - jest jak najbardziej bezpieczne i co do tego nie ma wątpliwości. AI ułatwia i przyśpiesza pracę oraz - rzecz jasna - upiększa nasze prezentacje. A to, że wszystkie one zaczynają wyglądać podobnie… to już temat na innych tekst.
Tekst: Wojciech Kowalik, creative director, copywriter, przewodniczący jury Konkursu Niezależnej Kreacji Kreatura 2023
Komentarze
Artykuły powiązane