Sztuczna Inteligencja Obrazy:
Na chwilę obecną ChatGPT posiada wiedzę obejmującą dane do stycznia 2022 roku, dlatego… nie wie wszystkiego o nas i o świecie. I chociaż jego umiejętności mogą nam imponować, system generowania tekstów, z którego coraz częściej korzystamy, popełnia błędy. Mówiąc obrazowo: cierpi na halucynacje. Ogólnie rzecz biorąc, halucynacja w kontekście sztucznej inteligencji może odnosić się do sytuacji, w której system SI błędnie interpretuje bądź generuje informacje, co prowadzi do fałszywych lub zmyślonych rezultatów. To zjawisko może wystąpić, gdy model jest niewłaściwie przeszkolony, zniekształcony lub gdy dane wejściowe są niejednoznaczne.
GENERATYWNE BŁĘDY
Po pierwsze: halucynacja SI (sztuczna inteligencja obrazy) jest to zjawisko niepożądane, ponieważ chat powinna dostarczać wiarygodne i poprawne wyniki na podstawie dostępnych danych. Gdy jednak model jest nadmiernie dostosowany do konkretnych danych treningowych, może wykazywać tendencję do generowania błędnych lub wyolbrzymionych rezultatów, co można potraktować jako rodzaj „halucynacji”.
Takie zjawisko najlepiej widać jednak na podstawie narzędzi generujących obrazy. Okazuje się bowiem, że czasami nawet najlepiej przeszkolone modele mogą popełniać „generatywne błędy”, obejmując nietypowe struktury, niezrozumiałe kombinacje kształtów lub nawet surrealistyczne interpretacje danych treningowych.
WYZWANIA PRZYSZŁOŚCI
Jednym z wyzwań dla programistów jest brak pełnego zrozumienia kontekstu, co czasem prowadzi do wygenerowania nieoczekiwanych elementów w obrazie. Na przykład, gdy model jest zasilany zestawem danych, które obejmują różne sceny, może czasem łączyć je w sposób, który dla ludzkiego oka wydaje się nonsensowny.
Po drugie: innym aspektem generatywnych błędów jest nadmierne dostosowanie do danych treningowych, co może prowadzić do powielania nietypowych wzorców lub nawet błędnych interpretacji. Dlatego ważne jest, aby stale doskonalić modele i dostosowywać je do zróżnicowanych scenariuszy.
Chociaż generatywne błędy są nieuniknione, eksperci ds. sztucznej inteligencji pracują nieustannie nad doskonaleniem algorytmów, aby zminimalizować ryzyko wystąpienia takich nieprawidłowości. Pomimo tych problemów, sztuczna inteligencja obrazy nadal otwiera nowe możliwości artystyczne, badawcze i kreatywne, jednocześnie wymagając uwagi w zakresie etyki i odpowiedzialności w rozwoju tych technologii.
CO POTRAFI BING AI?
Oto grafiki w stylu Picassa, wygenerowane przez BING AI, zintegrowany z komunikatorem Skype:
Historycy sztuki z takich prac, nawiązujących do Picassa, chyba nie byliby zadowoleni. Odrobinę lepiej wypadł jednak „Chłopiec na plaży w stylu Picassa”:
Znacznie lepiej BING AI poradził sobie z następującym promptem „Kobieta na plaży z książką (w stylu Matisse’a)”:
A oto ewidentny przykład halucynacji. Na prośbę o wygenerowanie grafik Białegostoku otrzymałem prace, na których nie ma żadnego budynku z centrum tego miasta:
Z Warszawą BING AI poradził sobie prawie idealnie, chociaż Pałac Kultury i Nauki, prezentowany na ostatnim zdjęciu, aż tak spektakularnej architektury nie ma:
Podsumowując: uważajmy z nadmierny zaufaniem do Sztucznej Inteligencji. Dlatego dobry research to wciąż podstawa.
Usługa: BING AI (sztuczna inteligencja obrazy)