To rozwiązania na rynek amerykański, więc u nas pewnie zostałyby zmodyfikowane i dostosowane do miejscowego rynku. Poza tym przyszłość automatyzacji w handlu nie jest wcale taka pewna - tu mamy jeden przykład, a z drugiej strony Walmart rezygnuje z części kas samoobsługowych, więc różnie może być.
Myślę, że Amazon czuje się zobowiązany do wprowadzania "nowoczesnych" rozwiązań, nawet jeśli nie ma gwarancji, że się sprawdzą. Znamienny jest przedstawiony w artykule przypadek potajemnego zatrudniania osób sprawdzających automatyczny system zakupowy. Amazon nie przyznał się, że ludzie są tam potrzebni, choć przecież sam system działał, tyle że wymagał czasem dodatkowej kontroli. No ale przyznanie tego popsułoby legendę o AI w 100% zastępującym człowieka...
Internetowe randki od teraz mają inny wymiar
Twtter is a day by day war
Ciekawostka:
- W Cannes będziemy mówić o polskim filmie sprzed trzech lat, który jednak zaistniał niedawno w nowym kontekście. "Mistrz" był pierwszym na świecie filmem, w którym za pomocą sztucznej inteligencji zmieniono całą wersję językową - (...)
Do stworzenia angielskiej wersji filmu zaprosiliśmy oryginalną obsadę. Każda postać w wersji anglojęzycznej mówi głosem aktora, który odtwarzał tę rolę w filmie oryginalnym. Potem zeskanowaliśmy w studiu ich twarze i całą mimikę, które algorytmy sztucznej inteligencji naniosły na obraz filmowy. To troszeczkę przypomina to, co w internecie widzimy jako deepfake.
Może sprawdzę w wolnej chwili 😉
Przykład z ostatniej chwili: kilka dni temu pojawił się zwiastun nowego filmu Francisa Forda Coppoli "Megalopolis".
Na początku trailera wrzucono kilka krytycznych opinii o najważniejszych filmach tego reżysera, sugerując, że zawsze znajdzie się ktoś, kto nie doceni geniusza. Opinie miały być cytatami z recenzji znanych krytyków. Szybko wybuchł skandal, bo okazało się, że niektórych tekstów we wspomnianych artykułach zwyczajnie nie ma... Za błąd posadą zapłacił konsultant ds. marketingu, Eddie Egan. Skąd jednak ta wtopa? Jak można przeczytać:
Według źródła, zarówno Lionsgate, jak i Egan nie zamierzali fałszować cytatów, a zwiastun był efektem nieodpowiedniego sprawdzenia faktów i wyrażeń dostarczonych przez konsultanta. Zatem wygląda na to, że do wygenerowania fałszywych opinii wykorzystano sztuczną inteligencję. Variety sprawdziło swoją teorię, wpisując w ChatGPT frazę, aby wyszukał negatywne opinie o twórczości Coppoli. Odpowiedzi były bardzo zbliżone do tego, co można było zobaczyć w usuniętym zwiastunie.
Czyli trochę tak, jakby skorzystać z tego, co ChatGTP wymyślił na temat dorobku Nienackiego...
AI załatwi nas już za chwilę. Stoimy u progu świata, w którym nie da się przeprowadzić granicy między prawdą a kłamstwem. Choćby ten, skądinąd uroczy, fejk:
https://android.com.pl/tech/810104-chatgpt-o1-4o-pytania-odpowiedzi/
Do poczytania o nowej wersji ChatGTP. Ciekawe, jak by teraz wyszło z Nienackim?
Tym razem sprawa idealnie wpisująca się w ten wątek:
Kanał tematyczny OFF Radio Kraków będzie teraz niemal w całości tworzony przez narzędzia sztucznej inteligencji (AI). Program poprowadzą trzy postaci wykreowane przez AI. Pojawia się w nim m.in. „autorskie” programy muzyczne, wywiady oraz informacje i tematy adresowane do młodego odbiorcy przygotowywane przy użyciu AI. Nowa odsłona kanału OFF Radio Kraków to eksperyment badawczo-medialny, próbujący zdiagnozować i odpowiedzieć na pytanie, jakie skutki może nieść ze sobą rozwój sztucznej inteligencji dla kultury, mediów, dziennikarstwa, społeczeństwa.
Pracę straciło kilkanaście osób, głównie "zewnętrznych współpracowników" jak oświadczył Redaktor Naczelny Radia Kraków po tym, jak rozpętała się burza, dodając jednocześnie, że powodem zwolnień były słabe wyniki i planowana zmiana profilu radia.
Zwolnieni pracownicy utworzyli petycję protestacyjną, w której przedstawiają swój punkt widzenia.
A ludzie w komentarzach zauważają, że nawet wygenerowane przez AI zdjęcia "wykreowanych postaci" zawierają błędy...
No cóż, dziennikarze sami zdegenerowali swój zawód. Przecież klikbajtów nie wymyśliła sztuczna inteligencja, tylko pogoń za odsłonami. Fejk niusy to też element współczesnego dziennikarstwa. Zdarzenia, za które kiedyś dziennikarz by wyleciał z roboty z hukiem teraz nie doczekują się nawet słowa przepraszam. Bylejakość dotyczy również radia, zarówno prowadzący jak i czytający reklamy popełniają błedy językowe. Szejset jest jedym z wielu popularnych w radiu tekstów, od których uszy puchną.
Tak AI potrafi wykończyć tych, którzy poszli na łatwiznę, a że przy okazji po tyłku może dostać fachowiec... ten znajdzie sobie pracę.
Twtter is a day by day war
Mnie bardziej niepokoi to, że wygenerowana przez AI "dziennikarka" przeprowadziła wywiad z wygenerowaną przez AI Wisławą Szymborską... Owszem, takie zabawy się wcześniej zdarzały, ale zawsze w bardzo umownej konwencji, a jeśli poważniej, to w trybie przypuszczającym, czyli "Szymborska mogłaby powiedzieć...". A tu nieżyjąca od lat poetka komentuje tegorocznego Nobla i mówi o Oldze Tokarczuk, co podobno opatrzono tylko enigmatycznym komentarzem "program powstał z wykorzystaniem sztucznej inteligencji".
Nie wiem, jak to załatwiono od strony prawnej, może uzyskano zgodę spadkobiercy/ów. Jednak od strony etycznej uważam, że przypisywanie osobie zmarłej słów i poglądów, z którymi osoba ta mogłaby się nie zgadzać, jest paskudne.
Paradoksalnie fakt, że "rozmowa" dotyczyła współczesnych zagadnień, ma swoje dobre strony, bo łatwo zidentyfikować fake'a (choć nie zdziwię się, jak jakiś licealista wykorzysta cytaty z tej audycji w rozprawce). Co jednak, jeśli następnym razem tematem "wywiadu" z, dajmy na to, Niemenem, będzie Marek Grechuta?
Nie mam zupełnie problemu z tym, że AI wykonuje jakąś pracę zamiast człowieka. Nawet jeśli jest to praca dziennikarza, radiowego też. Natomiast niedopuszczalne jest oszukiwanie ludzi. A tak bym interpretował to co opisałaś. Jeśli chcemy się bawić w kreowanie wirtualnego świata, to takie produkcje powinny być znakowane w 100% swojej dostępności. Czyli video, tak jak teraz jest znakowane "premiera", "live" itd. powinno być znakowane ustalonym symbolem AI. Ponieważ audycja radiowa nie ma szansy być znakowana nie powinna być dopuszczona w takiej formie.
Twtter is a day by day war
AI nas załatwi. Jeśli zmiany idą głownie w kierunku zastępowania sztuczną inteligencja ludzi kreatywnych, twórców, to kto będzie potrzebny na rynku pracy - niewykształceni pracownicy do robot fizycznych?
Fundacja Szymborskiej zgodziła się na ten eksperyment
AI nas załatwi. Jeśli zmiany idą głownie w kierunku zastępowania sztuczną inteligencja ludzi kreatywnych, twórców, to kto będzie potrzebny na rynku pracy - niewykształceni pracownicy do robot fizycznych?
To akurat nie jest prawda. Koszt AI kreatywnego jest potężny i musi się uczyć na bazie stworzonej przez ludzi kreatywnych. A że dziennikarze sami obniżyli poziom to pozwalają na zastąpienie siebie komputerem.
Dzirnnikarz radiowy musi mieć to coś aby ludzie czekali na jego audycję, jeśli jest tylko suchym nośnikiem przekazu to może być zastąpiony komputerem.
Twtter is a day by day war
Przeczytałam wypowiedzi Rusinka i oceniam je bardzo źle. Po pierwsze:
Nie po raz pierwszy godzimy się na podobne eksperymenty — dodaje. — W zeszłym roku na warszawskich targach książki pojawił się hologram Szymborskiej czytającej wiersz.
Hologram poetki "czytający" JEJ WŁASNE wiersze a wkładanie w usta zmarłej osoby (która nie może się bronić) NIE JEJ WŁASNYCH słów to całkiem różne sprawy i nie wiem, jak można je porównać. Chyba na zasadzie różnicy, nie podobieństwa...
Po drugie:
Zresztą ci, którzy dobrze znali Wisławę Szymborską, też zapewne szybko się zorientowali, że to nie jej słowa, bo z pewnością nie odpowiadałaby na pytania w taki sposób, jak zrobiła to sztuczna inteligencja.
Co to za argument? Jaki procent słuchaczy na tyle "dobrze znał Wisławę Szymborską" by wiedzieć, jak zachowywała się podczas wywiadów? Ja na pewno nie.
Mam wrażenie, że Michał Rusinek nie rozumie, na czym polega problem i jakie mogą być jego konsekwencje.
Przeczytałam wypowiedzi Rusinka i oceniam je bardzo źle. Po pierwsze:
Nie po raz pierwszy godzimy się na podobne eksperymenty — dodaje. — W zeszłym roku na warszawskich targach książki pojawił się hologram Szymborskiej czytającej wiersz.
Hologram poetki "czytający" JEJ WŁASNE wiersze a wkładanie w usta zmarłej osoby (która nie może się bronić) NIE JEJ WŁASNYCH słów to całkiem różne sprawy i nie wiem, jak można je porównać. Chyba na zasadzie różnicy, nie podobieństwa...
Po drugie:
Zresztą ci, którzy dobrze znali Wisławę Szymborską, też zapewne szybko się zorientowali, że to nie jej słowa, bo z pewnością nie odpowiadałaby na pytania w taki sposób, jak zrobiła to sztuczna inteligencja.
Co to za argument? Jaki procent słuchaczy na tyle "dobrze znał Wisławę Szymborską" by wiedzieć, jak zachowywała się podczas wywiadów? Ja na pewno nie.
Mam wrażenie, że Michał Rusinek nie rozumie, na czym polega problem i jakie mogą być jego konsekwencje.
Dlatego moim zdaniem kluczowe powinno być znakowanie. Problem w tym, że nie zawsze "da się". To trochę jak z pomysłem znakowania terenu objętego monitoringiem wizyjnym, który był zapisany w propozycji ustawy o monitoringu. Mianowicie twórcy ustawy proponowali obowiązek ustawiania tabliczek informujących. Na moje zastrzeżenie o wykluczeniu osób niewidomych, które przecież by również były nagrywane, ale bez świadomości tego, nie dostałem informacji zwrotnej. Argument "przecież każdy" nie jest argumentem.
Twtter is a day by day war
Mnie bardziej niepokoi to, że wygenerowana przez AI "dziennikarka" przeprowadziła wywiad z wygenerowaną przez AI Wisławą Szymborską... Owszem, takie zabawy się wcześniej zdarzały, ale zawsze w bardzo umownej konwencji, a jeśli poważniej, to w trybie przypuszczającym, czyli "Szymborska mogłaby powiedzieć...". A tu nieżyjąca od lat poetka komentuje tegorocznego Nobla i mówi o Oldze Tokarczuk,
Problemem nie jest tutaj AI. W końcu taki wywiad można po prostu sobie samemu napisać i opublikować na stronie. Problemem jest, jak słusznie zauważył Paweł, oszukiwanie ludzi. Przy pomocy AI można to zrobić skuteczniej, to fakt. Niemniej nie jest winą noża, że za jego pomocą można zabić. Zasadniczo należy kroić nim chleb i do tego celu jest bardzo użyteczny.
Z AI jest taki szkopuł, że ludzie (na razie) bezkrytycznie wierzą w to co ona produkuje. Przerabialiśmy to zresztą już kiedyś, tylko kiedyś był to po prostu komputer jako taki. „Komputer wykazał, że...” i nie ma zmiłuj, to musi być prawda. Teraz to samo jest z AI.
Śmieszą mnie rozmaite galerie w stylu „AI pokazuje jak naprawdę wyglądali rzymscy cesarze”. Bo mamy posąg, wrzucamy w AI, i wychodzi „prawdziwy” wygląd. Tylko że nie 🙂
Myślę że to zachłyśnięcie minie. A przynajmniej mam taką nadzieję. A AI jako narzędzie może być bardzo użyteczne o ile nie wymaga się kreatywności. Bo AI samo w sobie kreatywne nie jest, sprawia tylko takie pozory jeśli zostanie nakarmione odpowiednio obfitymi danymi. Ale ktoś musiał najpierw wyprodukować tę całą treść którą AI przeżuwa i wypluwa.
Z innej beczki. W polskim prawie, zdaje się, prawa osoby ustają wraz z jej śmiercią. Niektóre z praw, np. autorskie, przechodzą na spadkobierców. Ale prawo do ochrony wizerunku chyba nie? Jeśli jest na sali prawnik, to mnie poprawcie, ale chyba można bezkarnie generować „awatary” osób nieżyjących. Niestety, oczywiście.
„Nie chcę pani schlebiać, ale jest pani uosobieniem przygody. Gdy patrzę na panią łowiącą ryby, pływającą po jeziorze, nie wyobrażam sobie, aby istniała bardziej romantyczna dziewczyna”
W kwestii wypowiedzi Rusinka fragment "bo z pewnością nie odpowiadałaby na pytania w taki sposób, jak zrobiła to sztuczna inteligencja" podważa w ogóle sens tego zastosowania AI. To takie samo zastosowanie wizerunku Szymborskiej jakie od dawna funkcjonuje w porno, gdzie za pomocą fotoszopa czy innego zaawansowanego programu rozbierało się znanych aktorów.
"bo z pewnością nie odpowiadałaby na pytania w taki sposób, jak zrobiła to sztuczna inteligencja" podważa w ogóle sens tego zastosowania AI.
Znaczy tylko o amatorskiej zabawie narzędziami. Oczywiście można stworzyć zarówno model dźwiękowy jak i sposób wypowiedzi a nawet emocje. Wystarczy "tylko" dostarczyć odpowiednie zasoby, na których narzędzie może się nauczyć, pod warunkiem, że ma zaimplementowane profesjonalne mechanizmy pozwalające na naukę i stworzenie "produktu".
Twtter is a day by day war
Założę się, że informacja z PAP została opracowana przez AI, styl pisania typowy dla sztuczniaka:
Protesty w Portugalii. Ataki na policję i dziennikarzy - Wiadomości (onet.pl)
Twtter is a day by day war
Dla przykładu wrzuciłem ten tekst
Portugalia. Zamieszki pod Lizboną po zabiciu domniemanego członka gangu - TVN24
z prośbą o trzypunktowe podsumowanie, co dostałem:
Oto trzy punkty podsumowania tekstu:
-
Przyczyna Zamieszek: Zamieszki w mieście Amadora pod Lizboną zostały wywołane przez grupę około 40 osób po tym, jak policjanci śmiertelnie postrzelili 43-letniego mężczyznę, który według funkcjonariuszy należał do gangu i próbował zaatakować ich nożem podczas kontroli.
-
Przebieg Zamieszek: Zamaskowane osoby ustawiły barykady z koszy na śmieci, które następnie podpaliły, oraz obrzuciły kamieniami i butelkami autobusy komunikacji miejskiej. Policja użyła broni gładkolufowej, aby odblokować ulice i odpowiedzieć na ataki napastników na pojazd straży pożarnej.
-
Konsekwencje i Kontekst: W wyniku zamieszek ranna została co najmniej jedna osoba. Osiedle Zambujal, gdzie doszło do zamieszek, jest uznawane za niebezpieczne, a większość jego mieszkańców to imigranci z byłych portugalskich kolonii lub ich potomkowie.
Twtter is a day by day war