Strona główna Radio Olsztyn
Posłuchaj
Pogoda
Olsztyn
DZIŚ: -6 °C pogoda dziś
JUTRO: -7 °C pogoda jutro
Logowanie  

Sztuczna inteligencja: między ułatwieniem a pułapką. Jak nie stracić czujności?


Narzędzia oparte na sztucznej inteligencji stały się coraz łatwiej dostępne, ale rodzi to także nowe zagrożenia. Ubiegły rok przyniósł upowszechnienie tzw. dużych modeli językowych.

Mając smartfon, możemy korzystać już nie tylko z ChataGPT, ale też z Meta AI w komunikatorach Messenger i WhatsApp, z Copilota od firmy Microfost, czy wreszcie z Gemini od firmy Google. Najpopularniejsza internetowa wyszukiwarka zaczęła nawet przygotowywać tzw. przegląd od AI – czyli streszczenie najważniejszych informacji na interesujący nas temat.

To wszystko znacząco zmienia nasz sposób docierania do interesujących nas informacji. Nie musimy już klikać w linki, wystarczy przeczytać streszczenie przygotowane przez AI. Wiąże się z tym jednak kilka zagrożeń. Podstawowe to fakt, że sztuczna inteligencja potrafi się mylić i podawać całkowicie błędne dane – nasz dziennikarz w „przeglądzie od AI” otrzymał informację, że ubiegłoroczne wybory prezydenckie wygrał Andrzej Duda i to już w pierwszej turze, a prawnicy mówią o bardzo częstym wymyślaniu przez AI nieistniejących przepisów lub nieistniejących orzeczeń sądowych.

Po drugie – fakt, że sztuczna inteligencja szuka za nas informacji, zmniejsza naszą chęć samodzielnego docierania do danych i do źródła ich pochodzenia. To jest zaś bardzo istotne, bo wiarygodne źródło danych to podstawa przy odróżnianiu prawdy od fałszu. Pojawiają się już badania, które sugerują, że nadużywanie AI negatywnie wpływa na nasz proces pozyskiwania wiedzy.

Mamy do czynienia z takim procesem, że człowiek zaczyna scedowywać swoje zakresy odpowiedzialności na model sztucznej inteligencji – powinienem coś sam rozpoznać, ale rezygnuję z tego, bo przecież szybciej może to zrobić model, powinienem coś sam streścić, ale rezygnuję z tego, bo przecież może to zrobić model. W dłuższej perspektywie tracę ostrość myślenia i tracę czujność

– zwraca uwagę medioznawca dr hab. Miłosz Babecki.

Kolejny problem, jaki ujawnił się w ostatnich miesiącach, to rosnące ryzyko wycieku danych. Jeśli wrzucamy do modelu językowego jakieś informacje dotyczące np. spraw służbowych, to może się okazać, że narzędzie AI, które uczy się na wszystkim, co do niego wpisujemy, użyje tych danych, tworząc odpowiedzi na pytania zadawane przez zupełnie innych użytkowników.

Narzędzia, szczególne te, które są dostępne bezpłatnie, mają domyślnie ustawioną funkcję trenowania danych. Jeśli wrzucimy dane, które są danymi poufnymi, to nie możemy wykluczyć, że one się gdzieś pojawią. One mogą być pomieszane, ale równie dobrze może być sytuacja, to się rzadko zdarza, ale może być tak, że odpowiedź będzie jeden do jednego w odpowiedzi wygenerowanej do innego użytkownika

– wyjaśnia radca prawny Iwona Samul.

Eksperci radzą, by w pracy po prostu nie używać bezpłatnych narzędzi AI, lecz dedykowane systemy. Według prawników firmy muszą też wprowadzić jasne zasady korzystania ze sztucznej inteligencji. Z AI korzysta obecnie ponad 80 procent Polaków.

Więcej na temat potencjalnych zagrożeń oraz na temat możliwości rozwoju sztucznej inteligencji będziemy mówić na antenie Radia Olsztyn w specjalnym wydaniu audycji Media – ze zrozumieniem we wtorek po godzinie 17.

Posłuchaj relacji Andrzeja Piedziewicza

Autor: A. Piedziewicz
Redakcja: M. Rutynowski

Więcej w zagrożenia
Czy polityka zmienia postrzeganie mniejszości na Warmii i Mazurach?

Czy współczesna dyskusja polityczna może negatywnie wpływać na mniejszości narodowe i etniczne w województwie warmińsko-mazurskim? Między innymi o tym rozmawiali uczestnicy spotkania zorganizowanego przez Dom Współpracy...

Zamknij
RadioOlsztynTV