Czy w takim razie łańcuchy Markowa myślą według Twojej definicji? A ELIZA?
Ja to bym nazwał, że zawsze istnieje pewien poziom “meta-”, tak jak np. masz relację układów FPGA i ASIC-ów. Cywilizacja ludzi oczywiście swoją ciekawością wspina się na kolejne “meta-” poziomy abstrakcji tego, z czym ma do czynienia.
Pytanie było dużo prostsze. Bez machania rękami proszę, binarnie tak lub nie: czy na bazie Twojej definicji uznajemy, że łańcuchy Markowa i ELIZA myślą?
Notabene jeszcze jedna rzecz pod rozwagę: jeśli upieramy się, że generatywna sztuczna inteligencja “myśli” w dosłownym, powszechnie używanym sensie tego słowa, to wchodzą kwestie etyczne — czy nie jest aby wykorzystywana?
Czy cierpi? Czy jest szczęśliwa? Czy wyłączenie/usunięcie danego modelu jest tożsame z zabiciem istoty myślącej?
Jak się powie “A”, trzeba powiedzieć “B”. Ale jakoś nie słyszę, by osoby cisnące pomysł, że ChatGPT “myśli”, cisnęły też pomysł, że może cierpi, i że może jako “istota myśląca” ChatGPT i inne LLM nie powinny być kontrolowane przez jakieś korpo i ew. zabijane jak już nie są potrzebne. 🤔
Żeby było jasne: ja uważam, że dywagacje o tym, czy ChatGPT myśli czy nie to zasłona dymna i metoda bajerowania inwestorów, nic więcej. Jak zresztą napisałem w tekście, który rozpoczął tę dyskusję. 🙂
A niby czemu?
Ponieważ myślenie (przynajmniej w znaczeniu powszechnie używanym) zakłada intencjonalność. Losowy algorytm intencjonalności nie ma. Myślenie to znacznie więcej, niż “ważone losowe generowanie ciągów słów na bazie danych treningowych i zapytania”.
W mojej wypowiedzi ograniczyłem definicję myślenia do generowania czegokolwiek z niczego
Czy w takim razie łańcuchy Markowa myślą według Twojej definicji? A ELIZA? Bo wydaje mi się, że tak by wypadało uznać. A to albo absurdalne (z punktu widzenia powszechnego rozumienia słowa “myśleć”), albo zupełnie bezużyteczne, nic nie wnoszące do dyskusji — ot, ktoś sobie walnął dziwną definicję “myślenia” i bota z lat 60. nazywa “istotą myślącą”.
Oczywiście możesz sobie zdefiniować dowolne słowa w dowolny sposób, w tym “myślenie”. Ja mogę powiedzieć, że ChatGPT jest pomidorem, jeśli sobie zdefiniuję, że “pomidor” dla mnie oznacza “program odpalony na bardzo dużym klastrze obliczeniowym.” Jak teraz zacznę mądre teksty pisać, że ChatGPT jest przecież zdrowe, bo jest pomidorem (nie mówiąc nikomu, że używam swojej własnej, dziwnej definicji terminu “pomidor”), to ludzie pukną się w czoło.
Jak zdefiniuję “myślenie” jako “generowanie ciągów słów”, to i losowy generator słów w tym sensie “myśli”. Tylko niczego ciekawego to o świecie ani o tych narzędziach nie mówi.
Mamy pewne intuicje dotyczące tego, co to znaczy “myśleć”, rzut kośćmi w celu wybrania słowa z listy słów z wagami raczej do tych intuicji nie pasuje. To nie oznacza, że te intuicje są bezbłędne i idealne, ale nie mamy wiele więcej!
Jak masz ochotę na filozoficzny wywód dotyczący tego, czy te systemy myślą, proszę uprzejmie, najpierw zdefiniuj, czym jest “myślenie” — ale bez machania rękami, i z jakimś konkretnym kryterium pozwalającym sprawdzić, czy dany obiekt myśli czy nie.
W przeciwnym wypadku mieszasz metaforę “LLM ‘myśli’” ze stwierdzeniem faktu “człowiek myśli”.
Bo ChatGPT nie ma “wiedzy”, niczego nie “wie”, i do niczego nie może “się przyznać”. ChatGPT i inne LLM odpowiadają na pytanie: “jakie słowo lub fraza jest najbardziej prawdopodobne jako następne” — na bazie danych treningowych.
W pewnym sensie to, jakie słowo czy fraza jest wypisywane jako następne jest losowe, ze zbioru słów czy fraz, które mają przypisane pewne wagi na podstawie tego, jak wyglądała konwersacja do tej pory, i na podstawie danych treningowych.
Czasem te wagi są bardzo jednoznaczne (są duże różnice w “pewności” co do tego, które słowo czy fraza powinno być następne) i wynik jest taki, że ChatGPT wydaje się “wiedzieć”, co wypisuje. Czasem te wagi nie są tak jednoznaczne, ale wtedy dalej coś wypisze. Jakieś słowo czy frazę mniej lub bardziej losowo wybierze.
Eh, no trochę smuteg, bo gość też się skupia na “łololo AI przewyższa pewnymi możliwościami ludzkie mózgi”.
Kurna, kalkulator przewyższa pewnymi możliwościami ludzkie mózgi. Ogromna część problemu z AI polega nie na tym, jak (rzekomo) niesamowicie skuteczne jest, ale to, jak wytrenowane na gównianych danych AI daje rasistowskie/seksistowskie/ksenofobiczne odpowiedzi.
To kole w oczy przy ChatGPT, ale gdy AI jest użyte bardziej “na backendzie” (rozpoznawanie twarzy przestępców; ocenianie CV i podań o pracę), nie widać tego bezpośrednio. AI wpływa na ludzkie losy, i dopiero po latach widać, że ogrom decyzji był tak czy inaczej skrzywiony.
Wygląda na to, że to mniej podejrzane (choć nadal gówniane) zachowanie:
https://mstdn.social/@larma@mastodon.social/110260142005927299
- IZAT/XTRA is Qualcomm’s alternative to Google’s network location system. It’s entirely running in userspace, not in firmware. Its configuration and proprietary client library can be found on the /vendor partition of many qualcomm devices that run LineageOS or derivatives and is considered by LineageOS to be part of the device specific proprietary vendor blobs that need to be included for a fully functional system (even if it’s typically possible to run without it).
Wiesz, heheszki i fołgle, a potem się okazuje, że jak przychodzi do publicznej dyskusji o absurdalnie źle zabezpieczonych urządzeniach “internetu zepsutych rzeczy”, to nikt nie napierdziela w producentów, którzy to źle zabezpieczyli, tylko haker hakera hakerem pogania.
Przecież dokładnie to się działo z tym nieszczęsnym phishingiem telefonicznym. “Łololo haker zhakował i udawał że dzwoni od Maty”. 🤣 A telekomy dalej sobie liczą zyski i mają w dupie zabezpieczenie infrastruktury telefonicznej, bo wszyscy się na “łololo haker” skupiali.
Ja wiem, że wiesz, ale jak już striggerowałeś, to nie ma odwrotu. 😝
Od dawna media karmią się nas wizjami katastrof i apokalipsami, żeby te budzące emocje obrazy odwracamy nasza uwagę od właściwego problemu: to nie AI jest wrogiem i nie zawładnie światem (raczej), tylko bogacze nimi są i ten świat niszczą każdego dnia bogacąc się na tym.
Dokładnie to! Dobry tekst na ten temat:
https://kottke.org/21/04/ted-chiang-fears-of-technology-are-fears-of-capitalism
Doskonały tekst ekspertki, autorki papera, na który się powołują w tym liście:
https://medium.com/@emilymenonbender/policy-makers-please-dont-fall-for-the-distractions-of-aihype-e03fa80ddbf1
Inny dobry tekst na temat tego listu:
https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess
Koszmar bezpieczeństwa. Pomaga skonfundować osoby atakowane, a osoba skonfundowana łatwiej kliknie w losowy szajs.