Wbrew globalnym trendom integracji narzędzi cyfrowych, społeczność niemieckojęzycznej Wikipedii przegłosowała rygorystyczny zakaz publikowania treści generowanych przez LLM. Decyzja ta, stojąca w opozycji do bardziej liberalnego podejścia wersji anglojęzycznej, otwiera trudną dyskusję o granicach między ludzką wiedzą a maszynową halucynacją oraz o technicznych możliwościach
Chyba mam w końcu dobre zastosowanie dla TPU i innych neural enginów w prywatnych urządzeniach. Wtyczka do przeglądarki i niech takie obrazki się generują na ochłonięcie wszystkim szukającym nowego lokum, szczególnie z rynku pierwotnego, podczas przeszukiwania stron z ogłoszeniami– dla ich własnego dobra. Na deweloperów i pośredników naturalnie nie ma co liczyć ;) https://antirender.com/
Z lewej strony widoczna jest wizualizacja budynku z typowymi upiększeniami – piękną pogodą około południa latem z zielonymi drzewami i spacerowiczami. Z prawej ten sam budynek, ale przedstawiony w pochmurny listopadowy dzień.
Poświrowany świat, w którym ludzie nawiązują emocjonalną relację z #AI i mają pretensje do developerów, że stworzony przez nich cyfrowy produkt nie jest empatyczny. Jak daleko posuniemy się w nawiązywaniu uczuciowych relacji z #artificialintelligence ?
Polski #LLM#PLLuM to szansa na wprowadzenie #AI do polskich instytucji publicznych i samorządów. #PLLuM daje możliwość lokalnego uruchomienia, z rządowym wsparciem. Jeśli już jakieś publiczne dane miałyby być wrzucane do #genAI to osobiście wolę polskie rozwiązanie, lokalnie uruchomione, ale ze wsparciem rządu, Ministerstwa Cyfryzacji,
@nask_pl#NASK i dobrych uczelni. Czekam na wdrożenia.
Miliarder Mark Cuban, znany inwestor i ekspert technologiczny, twierdzi, że sztuczna inteligencja jest w początkowej fazie rozwoju i może doprowadzić do powstania pierwszego na świecie trylionera. Podkreśla jednak konieczność krytycznego podejścia do nowych technologii.
Walka z pożarami lasów to chyba ostatnie zastosowanie sztucznej inteligencji, jakie mogłoby mi przyjść do głowy. Ale to się robi, nawet z powodzeniem. Mamy już satelity przeciwpożarowe, które mogą wykrywać pożary niemal w czasie rzeczywistym. W Turcji podobno dzięki AI radzą sobie z pożarami jeszcze przed ich wystąpieniem.
#Facebook
Dowiedz się, jak będziemy wykorzystywać Twoje informacje w miarę udoskonalania SI w Meta
Dzień dobry, Asen!
Stale udoskonalamy SI w Meta. #SI w Meta to nasz zbiór generatywnych funkcji sztucznej inteligencji, takich jak #Meta#AI oraz Narzędzia kreatywne SI, wraz z modelami, które je uruchamiają. Obejmuje to także udostępnianie modeli poprzez otwartą platformę w celu wspierania badaczy, deweloperów i innych osób w społeczności SI.
Co to oznacza dla Ciebie
Aby ułatwić korzystanie z tych funkcji, chcemy, abyś wiedział(a), że będziemy wykorzystywać informacje publiczne, takie jak posty i komentarze z kont osób w wieku co najmniej 18 lat. Obejmuje to wszystkie publiczne informacje udostępnione w Produktach Meta od momentu utworzenia konta. Wykorzystamy również Twoje interakcje z funkcjami SI w Meta.
Zrobimy to na podstawie uzasadnionych interesów, aby rozwijać i ulepszać SI w Meta.
Co możesz zrobić
Przysługuje Ci prawo do #sprzeciwu wobec wykorzystywania Twoich danych w tym celu. Jeśli prześlesz sprzeciw, wyślemy e-mail z potwierdzeniem, że od tego momentu nie będziemy wykorzystywać Twoich interakcji z funkcjami SI w Meta ani publicznych informacji z Produktów Meta do opracowywania i ulepszania modeli generatywnej sztucznej inteligencji dla SI w Meta.
JAK ZŁOŻYĆ SPRZECIW
Słowo "sprzeciwu" jest linkiem do formularza kontaktowego, automatycznie wpisuje, się twój e-mail i opcjonalnie możesz napisać CO O TYM SĄDZISZ
📰 "Generatywna sztuczna inteligencja już teraz podnosi czerwone flagi przez dezinformację, stronniczość i szkodliwe wyniki. Jednak ryzyko to znacznie wzrasta, gdy dane treningowe pochodzą ze słabo moderowanych lub toksycznych środowisk mediów społecznościowych. Rezultatem jest nowy rodzaj algorytmicznego wpływu - taki, który wykracza poza silniki rekomendacji i zaczyna przekształcać samą architekturę wiedzy.
Kiedy generatywna sztuczna inteligencja jest szkolona na toksycznych lub słabo moderowanych platformach mediów społecznościowych, nie tylko odzwierciedla uprzedzenia - wzmacnia je i systematyzuje. Modele te absorbują nie tylko język i zachowanie, ale także podstawową dynamikę samych platform, w tym ich ideologiczne echa, dyskryminujące wzorce i luźne standardy moderacji."
"The Scientific Integrity Act (#SI Act) is a bipartisan bill re-introduced on February 6th in the US House of Representatives… [It] would include language prohibiting scientific or research misconduct; preventing intimidation or attempted coercion to alter or censor scientific or technical findings; and allowing public dissemination of scientific and technical findings…It would ensure that scientific conclusions are not made based on political considerations but based on the best available science."