NAJVEĆI SVETSKI INTELKTUALAC PROGOVORIO O TEMI O KOJOJ PRIČA CEO SVET: Reči koje su daleko odjeknule!

Autor: Republika

Vesti

26.03.2023

12:49

Pratite nas i putem Android ili iOS aplikacija

Android aplikacija ios aplikacija huawei aplikacija

Možda će doći dan kada mehanički umovi nadmaše ljudske mozgove, ali taj dan još nije došao.

NAJVEĆI SVETSKI INTELKTUALAC PROGOVORIO O TEMI O KOJOJ PRIČA CEO SVET: Reči koje su daleko odjeknule!

Foto: Profimedia, Shutterstock

Čuveni levičarski intelektualac ​​Noam Čomski, otac moderne lingvistike, kako ga zovu, nedavno je za Njujork tajms napisao članak o ChatGPT-u u kojem je naveo sve po čemu se ljudski um razlikuje od veštačke inteligencije, i nazvao programe kao što je ChatGPT „lažno obećanje“.

- Možda će doći dan kada će mehanički umovi nadmašiti ljudske mozgove, ali on još nije stigao, iako ga možemo čitati u preuveličanim medijskim naslovima i nagovestiti ga zbog nepromišljenih ulaganja u tu industriju - napisao je Čomski u članku sa kojim je koautor kolega profesor i istraživač Ian Roberts, veštačka inteligencija Džefrija Vatumula.

- OpenAI ChatGPT, Google-ov Bard i Microsoft-ov Sidnej su čuda mašinskog učenja -kaže Čomski.

Oni uzimaju ogromne količine podataka, kod njih traže obrasce i postaju sve veštiji u generisanju rezultata koji liče na ljudski jezik i misao.

- Ali koliko god da su ovi programi korisni u nekim uskim domenima, u kompjuterskom programiranju, na primer, ili sugerišući rime za lake stihove, znamo iz lingvistike i epistemologije da oni ne koriste razum i jezik na isti način kao ljudi - on kaže.

Foto: Profimedia

 

Čomski je naveo nekoliko konkretnih stvari koje pokazuju kako se funkcionisanje programa veštačke inteligencije razlikuje od načina na koji ljudi misle i razumeju.

1. Ljudskom umu nije potrebno toliko podataka

Ljudski um je iznenađujuće efikasan inelegantan sistem koji radi sa malim količinama informacija. ChatGPT je, s druge strane, glomazan mehanizam za pronalaženje statističkih obrazaca.

Mora da proguta stotine terabajta podataka da bi došao do najverovatnijeg odgovora. Čomski daje primer - gramatiku.

- Malo dete usvaja jezik nesvesno, automatski i brzo iz male količine informacija i uz minimalno izlaganje informacijama - navodi on.

Istovremeno, gramatika je, kao sistem logičkih principa, zapravo „operativni sistem“ čoveka, urođeni čovekov program koji mu omogućava da izrazi svoje misli.

Za razliku od glomaznog programa ChatGPT, koji je obučen na ogromnim količinama podataka, svako dete gradi svoj program instinktivno i bez mnogo informacija.

Karakteristika ljudskog uma je „beskonačna upotreba sa ograničenim sredstvima“.

2. Veštačka inteligencija nije sposobna da uspostavi uzročne veze

Veštačka inteligencija ne može da ponudi objašnjenje. Na primer, ako pustimo jabuku i posmatramo rezultat, kažemo „jabuka pada“. To je opis.

Iz ovoga možemo predvideti: „Jabuka će pasti ako otvorim ruku“. Opis i predviđanje, kaže Čomski, nije ništa posebno, veštačka inteligencija takođe to može. Ali samo je čovek sposoban za sledeći zaključak „ako jabuka padne, znači da bi svaki takav predmet pao ako bih ga pustio“.

Foto: pexels.com

 

I na kraju za uzročno objašnjenje šta je znak prave inteligencije: „jabuka pada pod dejstvom sile teže“. Dakle, kaže Čomski, konačno objašnjenje „jabuka ne bi pala da nema sile gravitacije“ – razmišljanje. Veštačka inteligencija to ne može.

3. ChatGPT ne može da napravi razliku između mogućeg i nemogućeg

- Sistemi mašinskog učenja mogu naučiti da je Zemlja ravna, a da je okrugla. Ljudi su, međutim, ograničeni u vrstama objašnjenja koja mogu racionalno da pretpostave - navodi Čomski.

Konkretno, on navodi primer naučnog metoda. Sistemi veštačke inteligencije mogu da naprave neka tačna „naučna” predviđanja o, recimo, kretanju fizičkih tela, ali to rade bez upotrebe objašnjenja kao što su Njutnovi zakoni kretanja i univerzalne gravitacije.

Međutim, prema Čomskom, takva predviđanja, čak i kada su uspešna, zapravo su pseudonaučna.

Naime, kako je primetio filozof Karl Poper, naučna teorija treba da daje predviđanja koja se mogu proveriti, a teoriju treba odbaciti ako se pokaže da ta predviđanja nisu tačna. ChatGPT pravi sva svoja predviđanja „mariniranjem“ u velikoj količini podataka.

4. Nije sposobna za moralno rasuđivanje

Prava inteligencija je sposobna za moralno rasuđivanje. Tačnije, čovek može da ograniči svoju neograničenu kreativnost skupom etičkih principa koji određuju šta treba, a šta ne treba činiti.

ChatGPT takođe mora da se drži dalje od moralno nepoželjnog sadržaja. Na primer, Microsoft-ov Tai chatbot (prethodnik ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajem nakon razgovora sa korisnicima Tvitera.

Da ChatGPT slučajno ne bi izleteo sa nečim kontroverznim, a pošto nije sposoban da rasuđuje na moralnim principima, programeri su ga oštro i striktno ograničili od bilo kakvog nepoželjnog sadržaja.

Foto: Pixabay

 

Na taj način, smatra Čomski, njegova kreativnost je žrtvovana za neku vrstu amorala.

5. Ne možete voditi teške razgovore sa ChatGPT-om

- U svom trenutnom stanju, ChatGPT nije sposoban za kritičko razmišljanje i često je cenzurisan, što znači da ne može da vodi teške razgovore koji su doveli do velikih otkrića u nauci, kulturi i filozofiji - kaže Čomski.

Što je možda bolje. Jer netačnosti koje povremeno nudi kao odgovore mogu doprineti širenju teorija zavere, a postoji i rizik da osoba koja ga koristi bude primorana na neke opasne odluke.

Stoga, zaključuje Čomski, radi se o tehnologiji koja će verovatno ostati igračka i povremeno oruđe, a ne značajan deo naših života.

ChatGPT pokazuje nešto poput banalnosti zla: plagijat, apatija i izbegavanje.

On sažima standardne argumente u literaturi sa nekom vrstom superautokompleta, odbija da zauzme stav o bilo čemu, poziva na neznanje i nedostatak inteligencije.

Poštovani čitaoci, možete nas pratiti i na platformama: Facebook, Instagram, YouTube, TikTok, Telegram, Vajber. Pridružite nam se i prvi saznajte najnovije i najvažnije informacije.
Naše aplikacije možete skinuti sa Google Play i Apple AppStore.

BONUS VIDEO:

Komentari (0)

Loading