Blog:AI jako korepetytor: Różnice pomiędzy wersjami

Z MruczekWiki
(Poprawki.)
(Poprawki.)
 
(Brak różnic)

Aktualna wersja na dzień 20:26, 10 maj 2024

AI jako korepetytor
10 maja 2024 | Kenex


Khan Academy, organizacja non-profit zapewniająca bezpłatną edukację na wysokim poziomie, pracuje nad modelem Khanmigo, który może służyć jako korepetytor. Piękna wizja? Dla wielu używanie publicznie dostępnej wiedzy do treningu AI jest z automatu skandaliczną kradzieżą.

Wirtualny korepetytor ma moralnie pod górkę

W toku edukacji wielokrotnie korzystałem z pomocy korepetytorów. Płaciłem ludziom, którzy pozyskali w jakiś sposób swoją wiedzę i komunikują ją dla mnie zrozumiale. Nieraz otrzymywałem od nich różne materiały edukacyjne, w surowej, nieprzetworzonej formie. I - poza częścią nauczycieli - chyba mało kogo to oburzy. Jednak gdy ludzką wiedzę kolekcjonuje, przetwarza i przystępnie tłumaczy AI, jest to skandaliczna kradzież pracy.

Pojawiają się w przestrzeni publicznej oskarżenia, że AI jest jak kopista, ale uważam to za przesadę. Żeby AI bezczelnie skopiowało cudzy tekst, trzeba albo użyć technik jailbreak albo spytać o coś bardzo rzadkiego i specyficznego. Szczerze mówiąc, nie wiem, czy ryzyko plagiatu przez człowieka nie jest większe niż u AI, co pokazuje wywiad Doktoraty copy-paste. Polska nauka uzależniła się od plagiatów.

W przypadku maszyn mamy często bardzo wysokie wymagania. Ludzie, kierując samochodem, powodują wiele wypadków, ale sztuczna inteligencja nie ma prawa doprowadzić do ani jednego itp. Oburzamy się na wszystko poniżej poziomu Absolutnie Doskonałe.

Ktoś może powiedzieć, że te sytuacje są nieporównywalne, bo jak człowiek przycwaniaczy, to można go ukarać, a w przypadku AI trudno określić odpowiedzialność. Rzeczywiście, jest to rzecz, którą musimy przedyskutować. Ale nie jest to rzecz nierozwiązywalna. Wraz z rozwojem technologii pojawiają się nowe dylematy etyczne. To normalny skutek rozwoju.

Czytałem jakiś czas temu popularny pozew New York Timesa, w którym AI potrafiło napisać artykuł w 90% pokrywający się z dziełami redakcji. Brzmi okropnie, ale żeby uzyskać takie odpowiedzi, pozywający używali podstępów. Czy wtedy nadal winni są autorzy AI? Może powinni to lepiej zabezpieczyć? Możliwe. Ale takie używanie sztucznej inteligencji przypomina sytuację, jakby kimś nieustannie manipulować i mieć pretensję, jak za dziesiątym razem się złamał. Nie wiem, czy jakikolwiek produkt można tak zabezpieczyć, że nieważne, jak Pan Niedobry by kombinował, po prostu nie zastosuje go do złych celów. Ludzka kreatywność w tej materii jest ogromna.

No i zwróćmy uwagę na inny fakt - tekst nie pokrywał się idealnie. Czy Pan Niepłacący, chcąc czytać New York Timesa bez płacenia, nie będzie wolał poszukać pirackich miejsc, gdzie te teksty są skopiowane za darmo? Dokładnie tak, jak je napisano? Czy powinniśmy zakazać każdej technologii, której niektórzy używają do "kradzieży" cudzej pracy?

Korzystanie z wiedzy

Niektórzy argumentują, że karmienie AI ludzką pracą jest złe, ponieważ w praktyce oznacza to, że musisz korzystać z narzędzia, które najpierw ukradło Twoją pracę, a potem ją oddaje. Jednak mnie to nie przekonuje. Płacisz za narzędzie, które pracę Twoją i milionów innych ludzi odpowiednio przetwarza i dopasowuje do kontekstu.

Wyobraźmy sobie, że jestem przez 40 lat dziennikarzem i natrzaskałem olbrzymią liczbę tekstów. Pod koniec kariery zastanawiam się, gdzie użyłem argumentu takiego i takiego, bo chcę sobie przypomnieć. Niestety nie mogę tego znaleźć po słowach kluczowych. W takiej sytuacji pomocne może być narzędzie, które zna lub szybko czyta wszystkie moje teksty i jest w stanie mi pomóc.

A teraz wyobraźmy sobie przyszłość, gdzie każdy może poprosić AI o research w jakimś temacie i otrzymuje rezultat na poziomie naukowego przeglądu literatury. Czy to nie jest wspaniała wizja? Czy ludzkość nie może się zgodzić na przetworzenie wiedzy cywilizacji, by uzyskać tak owocne narzędzie?

Oczywiście obecne modele językowe nie są w stanie zapewnić tego poziomu. Wszystko, co dotychczas testowałem, wykłada się na dość prostym pytaniu z psychologii o treści w stylu "Podaj przykład sytuacji, gdy kierowca autobusu doświadczył podstawowego błędu atrybucji". Modele potrafią podać poprawną definicję, czym ów błąd jest, ale jak przychodzi do zastosowania wiedzy w praktyce, robi się ciężko. Gdy prosiłem je o research w temacie, w zasadzie w każdej odpowiedzi było coś nie tak, wliczając kompletnie zmyślone źródła. Istnieją pewne techniki promptingu, które zwiększają szansę na wyższej jakości odpowiedź, ale to jedynie kwestia szansy i niewielu śmiertelników o tych trikach w ogóle wie.

Rozumiem więc, jeśli ktoś uważa, że dla opisanej wcześniej utopii chętnie by dołożył całą swoją twórczość, ale nie dla produktu, który próbuje nam się teraz sprzedawać. Z drugiej strony wielu ludziom już teraz pomaga w przyspieszeniu wykonywania zadań. Nawet jeśli narzędzie ma skłonność do halucynacji, może w pewnym zakresie świetnie sobie radzić. Przykładowo mi Bing AI czasem serio pomaga coś znaleźć. Na 10 słabych źródeł poda jedno dobre, na które sam bym nie trafił.

Obawy o monopol

To, co rzeczywiście potencjalnie jest dużym problemem, to ryzyko powstania monopolu albo oligopolu, gdzie kilka korporacji oferuje usługi AI i ludzie niejako muszą z nich korzystać. Trochę jak obecnie z mediami społecznościowymi, gdzie bez nich zostajesz drastycznie ograniczony z różnych aspektów życia.

Ja jednak poruszę 2 wątki, które może nieco ostudzą panikę.

Po pierwsze, poza big-techem jest jeszcze cała społeczność naukowców i pasjonatów tworzących narzędzia open-source. Można je obczaić chociażby na Hugging Face. Wiele z nich może nie równa się na chwilę obecną produktom korporacji, ale są już takie, które je przewyższają. Przykładowo jak poprosisz zamknięte modele typu Dalle-3 o obrazek zawierający interakcję między postaciami, gdzie każda z nich wygląda inaczej, to raczej otrzymasz niezłą brzydotę (np. kompletnie skopane przytulanie), a wygląd postaci zostanie uśredniony. Darmowy model Pony Diffusion V6 XL z kolei radzi sobie nieźle z interakcjami, przypisywaniem cech konkretnym postaciom oraz z niesymetrycznymi rolami. Nie jest doskonały, ale już teraz jest lepszy!

Po drugie, big-tech bardzo liczy na wiarę w fałszywy dylemat, gdzie musimy wybierać między AI i monopolem albo brakiem AI i brakiem monopolu. Jednak gdy w historii USA zaczęły rodzić się potężne monopole, to nie zlikwidowano kategorii produktu, tylko podjęto polityczne decyzje, by dobra rzecz nie była w rękach tak niewielu. Pamiętajmy, że prawo antymonopolowe istnieje, a jeśli nie przystaje do współczesnych realiów, to można je zaktualizować. Unia Europejska, by przeciwdziałać monopolizacji mediów społecznościowych, wymusiła prawnie interoperacyjność. Jeśli nie chcemy, by władzę nad światem przejął Microsoft, po prostu mu tego zabrońmy.

Jeśli zależy nam, by AI służyło ludzkości, a nie garstce inwestorów, zadbajmy o to, by dobrze rozwijało się open-source. Najlepiej, aby państwa i podmioty prywatne sypnęły pieniędzmi. Dodatkowo za pomocą prawa wymuśmy, by wszystko nie spoczęło na rękach jednej korporacji. W przeszłości już tak robiono.

Zobacz też

MiauBlog:

MruczekWiki: