Jak działa sztuczna inteligencja Rozmowa z dr. Tomaszem Odrzygóździem.mp3
-
03.PanOptykon - Tok FM - Podcast -
2018 -
2019 -
2020 -
2021 -
2022 -
2023 -
NP #001 - ten o cenzurze w Internecie -
NP #002 - ten o bezpieczeństwie kart -
NP #004 – ten o VPN i sieci Tor -
NP #005 - ten z niezwykłym programistą -
NP #006 - ten o anonimizacji wywiadów -
NP #008 - ten o oszustwach internetowych -
NP #011 - ten o początkach w branży security -
NP #012 - ten z pierwszym przeglądem newsów -
NP #018 - ten z hackerskimi filmami -
NP #019 - ten, który może być ostatnim -
NP #029 - ten o socjotechnice -
NP #30 - ten z lajwem z kwarantanny -
NP #32 - ten z kolejnym zrzutem pamięci
To efekt postępu w pracy nad tzw. dużymi modelami językowymi. Z ich pomocą można tworzyć obrazy, teksty czy prowadzić długie rozmowy, przypominające dyskusję z człowiekiem. Jednak ich możliwości są potencjalnie większe – mogą objąć bardziej skomplikowane procesy: zautomatyzować analizę dużych zbiorów danych, konwersację w ramach czatbotów czy nawet tworzenie wysoce spersonalizowanych komunikatów marketingowych. I to wszystko szybciej niż najszybszy człowiek.
Potencjał nowej technologii szybko dostrzegły wielkie firmy. Równocześnie z biznesowym technologicznym „wyścigiem zbrojeń” na nowo rozgorzała medialna i polityczna dyskusja o ryzyku, jakie może na nas ściągnąć sztuczna inteligencja. To m.in. właśnie ze względu na skok technologiczny modeli takich jak GPT i opartych na nich programów prace nad Aktem o Sztucznej Inteligencji wciąż nie mogą dobiec końca.
Czym więc są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny Szymielewicz jest dr Tomasz Odrzygóźdź, badacz IDEAS NCBR i doktor Polskiej Akademii Nauk