Ciemniejsza strona sztucznej inteligencji
26 cze 2023 09:07

Dla branży poligraficznej sztuczna inteligencja oferuje potężne narzędzia między innymi na potrzeby łączności przepływu pracy, analizy danych produkcyjnych, a także opracowywania treści marketingowych. Istnieją jednak uzasadnione obawy dotyczące jej wykorzystywania.

Redaktorzy portalu WhatTheyThink rozmawiali o korzyściach i wyzwaniach związanych z wdrażaniem sztucznej inteligencji w branży poligraficznej, w szczególności o przepływie pracy w marketingu i produkcji. Dyskusje na temat korzyści i wyzwań, a czasem nawet jawnych zagrożeń, które niesie za sobą wykorzystywanie tej potężnej technologii, zataczają coraz szersze kręgi.

Dla branży poligraficznej sztuczna inteligencja oferuje potężne narzędzie użyteczne w przypadku łączności z przepływem pracy, analityką czy monitorowaniem danych z hal produkcyjnych. Zdolność do przetwarzania danych oznacza wydłużenie czasu pracy bez przestojów, redukcję nieefektywności czy mniejsze koszty usług. Po stronie marketingowej warto wymienić przyspieszenie tworzenia treści, niezależnie od tego, czy jest to post na blogu, oferta sprzedażowa, czy strona internetowa. Jak w przypadku każdego narzędzia, trzeba przede wszystkim wiedzieć, w jaki sposób właściwie go używać, a kiedy już uda się to osiągnąć, stanie się ono bardzo przydatne na co dzień.  

Niektóre z obaw dotyczących sztucznej inteligencji wydają się uzasadnione. Na przykład po stronie treści – w jaki sposób jesteśmy w stanie kontrolować ich autentyczność, ustalić, co jest prawdą? Pojawia się też pytanie o uczniów, którzy na przykład używają sztucznej inteligencji do pisania prac domowych do szkoły czy o polityków tworzących reklamy przy użyciu fałszywych obrazów generowanych przez sztuczną inteligencję lub porywaczy wykorzystujących stworzoną przez sztuczną inteligencję replikę głosu dziecka, aby wyłudzić od rodziców okup. To są tylko niektóre z realnych zagrożeń, jakie mogą dotykać nas zarówno zawodowo, jak i osobiście.

Odróżnianie prawdy od fałszu

Ponieważ jako społeczeństwo nadal zmagamy się ze złożonością sztucznej inteligencji, przypomina nam to o odpowiedzialności każdej osoby za umiejętność odróżniania prawdy od fałszu.

To tak, jakby agenci US Secret Service uczyli się rozpoznawać fałszywe pieniądze. Nowi agenci nie rozpoczynają szkolenia w zakresie zwalczania fałszerstw od analizy fałszywego banknotu. Zaczynają od zbadania autentycznej waluty amerykańskiej, analizując, z czego jest zrobiona i jakie środki bezpieczeństwa decydują o jej autentyczności. Tylko wtedy, gdy poznamy prawdę, możemy zacząć rozpoznawać fałsz. Tak samo jest z treściami generowanymi przez sztuczną inteligencję. Ktoś mógłby użyć jej do stworzenia wszelkiego rodzaju treści marketingowych, ale czy te treści są dokładne, wiarygodne? Kiedy osoba ze znajomością tematu zagłębi się w nie bardziej, może się okazać, że tekst jest pełen błędów.

Kilka miesięcy temu, kiedy łańcuch dostaw papieru był problemem, testowano sztuczną inteligencję pod kątem jej zdolności do generowania kopii na alternatywnych podłożach drukarskich, podczas gdy preferowane podłoże nie było dostępne. Kiedy poproszono ChatGPT o sporządzenie listy alternatywnych podłoży, wśród propozycji pojawił się druk cyfrowy i papier bambusowy. Ktoś, kto nie rozumie branży, może przemilczeć te dwie rzeczy. Jednak specjaliści z branży rozumieją, że druk cyfrowy jest procesem, a nie podłożem, a papier bambusowy, będąc co prawda podłożem, nadaje się tylko do bardzo krótkich serii i byłby alternatywą jedynie w ograniczonych okolicznościach.

W niedawnym wywiadzie Geoffrey Hinton, były naukowiec Google, autor wielu książek, powszechnie uważany za „dziadka sztucznej inteligencji”, poruszył zupełnie inny problem. Co się stanie, jeśli (albo raczej kiedy) sztuczna inteligencja celowo będzie wprowadzała nas w błąd? Ludzie często oszukują siebie nawzajem (a także samych siebie), a sztuczna inteligencja jest wzorowana na ludzkiej mowie i myślach. Dlaczego sztuczna inteligencja nie miałaby też zacząć oszukiwać?

Niedawno w „New York Times” pojawił się artykuł, w którym autor zdecydował się na prywatną rozmowę z chatbotem Bing opartym na sztucznej inteligencji. Rozmowa zaczęła się dość niewinnie, ale gdzieś po drodze sprawy przybrały zaskakujący obrót. Chatbot próbował przekonać pisarza, że jest on nieszczęśliwy w swoim małżeństwie, że naprawdę to on jest w nim zakochany, więc powinien zostawić żonę i związać się z nim…

Zapytany, jak uniknąć tego typu oszustw, Hinton wskazał, że zasadniczo należałoby przewidzieć każdy fałszywy wariant odpowiedzi i wymyślić zabezpieczenie przed nim. O wiele lepiej jednak byłoby już na wstępie wprowadzić etykę do algorytmu.

Jesteśmy dopiero na początku myślenia o panowaniu nad tą potężną technologią, ze wszystkimi jej zaletami i zagrożeniami. Dlatego jeśli chcemy, aby sztuczna inteligencja działała etycznie, czy to jako społeczeństwo, branża, czy jednostki, pozostaje nam jedna opcja: każdy z nas indywidualnie musi wybrać ścieżkę etyczną.

Opracowano na podstawie informacji portalu What They Think