Projekt finansowany z budżetu państwa w ramach programu Ministra Edukacji i Nauki pod nazwą „Nauka dla społeczeństwa”, zatytułowany „Architektura i infrastruktura Wielkiego Resetu – studium transformacji ku cywilizacji informacyjnej”
Sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność, Bruksela, dnia 19.2.2020 r. COM(2020) 64 final [https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52020DC0064&from=en]. Mowa tu między innymi, że „Oprócz możliwości, jakie AI, IoT i robotyka mogą przynieść gospodarce i naszym społeczeństwom, mogą one również stwarzać ryzyko naruszenia chronionych prawem interesów, zarówno materialnych, jak i niematerialnych. W miarę poszerzania się zakresu stosowania ryzyko wystąpienia takiej szkody będzie się zwiększać. […] Przyszłe „zachowanie” zastosowań opartych na AI może stwarzać ryzyko dla zdrowia psychicznego użytkowników, na przykład wskutek ich współpracy z robotami humanoidalnymi i systemami opartymi na AI w domu lub w środowisku pracy.”
Opinia George Sorosa podczas WEF w 2019 odnośnie do wykorzystania SI przez chińskie władze dla totalitarnej inwigilacji i kontroli [“social credit system”]: https://www.georgesoros.com/2019/01/24/remarks-delivered-at-the-world-economic-forum-2/ [„All the rapidly expanding information available about a person is going to be consolidated in a centralized database to create a “social credit system.” Based on that data, people will be evaluated by algorithms that will determine whether they pose a threat to the one-party state. People will then be treated accordingly. The social credit system is not yet fully operational, but it’s clear where it’s heading. It will subordinate the fate of the individual to the interests of the one-party state in ways unprecedented in history.
Opinia George Sorosa na temat zagrożenia ze strony użycia SI; wygłoszona podczas WEF w 2022 roku; wykład poświęcony zagrożeniu przetrwania cywilizacji z powodu inwazji Rosji na Ukrainę [„I found part of the answer in the rapid development of digital technology, especially artificial intelligence. In theory, AI ought to be politically neutral: it can be used for good or bad. But in practice the effect is asymmetric. AI is particularly good at producing instruments of control that help repressive regimes and endanger open societies. Covid-19 also helped legitimize instruments of control because they are really useful in dealing with the virus. The rapid development of AI has gone hand in hand with the rise of social media and tech platforms. These conglomerates have come to dominate the global economy. They are multinational and their reach extends around the world. These developments have had far-reaching consequences. They have sharpened the conflict between China and the United States”]. Tekst wykładu: https://www.georgesoros.com/2022/05/24/remarks-delivered-at-the-2022-world-economic-forum-in-davos/
Ostrzeżenie (2020) przed <lukami> w ewaluowanej, poprzedniej wersji ChatGPT: Publikacja naukowa (Kris McGuffie i Alex Newhouse, THE RADICALIZATION RISKS OF GPT-3 AND ADVANCED NEURAL LANGUAGE MODELS; Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism) wskazująca jak ChatGPT (Open AI) mógłby być wykorzystany przez terrorystów [https://arxiv.org/pdf/2009.06807.pdf]. [Open AI pracuje nad kolejną, poprawioną wersją: ChatGPT-4]
Opinia administracji J. Bidena (Office of Science and Technology Policy [OSTP]) wBlueprint for an AI Bill of Rights (2022) o zagrożeniu demokracji amerykańskiej: „Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent” (s. 3)
Pause Giant AI Experiments: An Open Letter (Listy otwarty w sprawie zagrożeń ze strony rozwoju SI, marzec 2023, podpisany między innymi przez Elona Muska, CEO of SpaceX, Tesla & Twitter, Steve„`a Wozniaka, Co-founder, Apple, Yuvala Noah Harari): ” AI systems with human-competitive intelligence can pose profound risks to society and humanity”, co oznacza „ryzyko utraty kontroli nad naszą cywilizacją”. Postuluje się zatrzymanie na pół roku badań nad SI (ma się tu na uwadze zwłaszcza rozwój chatbotów, w marcu 2023 otwarto ChatGPT4) [https://futureoflife.org/open-letter/pause-giant-ai-experiments/]
Opinia Thierry Bretona, Komisarza UE: „the sudden rise of popularity of applications like ChatGPT and the associated risks underscore the urgent need for rules to be established”. „As showcased by ChatGPT, AI solutions can offer great opportunities for businesses and citizens, but can also pose risks. This is why we need a solid regulatory framework to ensure trustworthy AI based on high-quality data,” [[https://www.euronews.com/next/2023/02/06/chatgpt-in-the-spotlight-as-the-eu-steps-up-calls-for-tougher-regulation-is-its-new-ai-act]
Eric Schmidt, były dyrektor Google (2001- 2011) ostrzegł, że „AI Could Cause People To Be ‘Harmed Or Killed’” (Wall Street Journal’s CEO Council Summit, Londyn, 25 V 2023) [https://ceocouncil.wsj.com/event/ceo-council-summit-7/]
Polski Urząd Ochrony Danych Osobowych (UODO) wszczął postępowanie przeciwko amerykańskiemu OpenAI za działanie ChatGPT niezgodnie z europejskimi zasadami ochrony danych osobowych i prywatności (wrzesień 2023)https://uodo.gov.pl/pl/138/2823
Ekologiczne i ekonomiczne straty skutkiem wdrażania AI
AI pochłania ogromne ilości energii elektrycznej i wody ( „ChatGPT, działający na 10 tys. procesorach NVIDIA, zużywa aż 1287 megawatogodzin energii elektrycznej. Można byłoby zasilić taką mocą niemal dwie setki domów przez rok. Emisja CO2 takiego bota to 552 ton, co odpowiada rocznej emisji ponad 120 samochodów zasilanych benzyną”. Oblicza się, że wkrótce AI Google zużyje energii elektrycznej tyle co Irlandia; w 2021 r. zużył łącznie 18,3 TWh,). Zużywa się też ogromne ilości wody potrzebnej do chłodzenia serwerowni; https://cyfrowa.rp.pl/globalne-interesy/art39257911-sztuczna-inteligencja-moze-wpedzic-swiat-w-kryzys-zuzywa-mnostwo-wody-i-pradu
Plany rządów (kwiecień-maj 2023) dot. regulacji prawnych odnośnie do SI: Raport Reuters [https://www.reuters.com/technology/governments-efforts-regulate-ai-tools-2023-04-12/]
AI ACT – aktualny stan prac w UE; rozmowa dr hab. Marleny Sakowskiej-Baryły, prof. UŁ, z dr Michałem Nowakowskim (16 grudnia 2023): https://www.youtube.com/watch?v=bLC6pw5BPWk
Opinia Komisji Europejskiej na temat aspektu etycznego SI: „Wymiar etyczny SI nie jest luksusem czy dodatkiem: musi stanowić integralną część rozwoju SI.”(„Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka; COM (2019) 168; 3. Wnioski].)
Aktywność firm ubezpieczeniowych: Angela Chen. Why the Future of Life Insurance May Depend on Your Online Presence. The Verge. Feb.7, 2019. https://www.theverge.com/2019/2/7/18211890/social-media-life-insurance-new-york-algorithms-big-data-discrimination-online-records; Marshall Allen. You Snooze, You Lose: Insurers Make The Old Adage Literally True. ProPublica. Nov. 21, 2018. https://www.propublica.org/article/you-snooze-you-lose-insurers-make-the-old-adage-literally-true
Handel osobowymi danymi: Scott Ikeda. Major Data Broker Exposes 235 Million Social Media Profiles in Data Lead: Info Appears to Have Been Scraped Without Permission. CPO Magazine. Aug. 28, 2020. https://www.cpomagazine.com/cyber-security/major-data-broker-exposes-235-million-social-media-profiles-in-data-leak/; Lily Hay Newman. 1.2 Billion Records Found Exposed Online in a Single Server. WIRED,Nov. 22, 2019. https://www.wired.com/story/billion-records-exposed-online/
Zażalenie na firmę zajmującą się <algorytmicznym> zatrudnianiem, skierowane do Federalnej Komisji Handlu [Federal Trade Commision, FTC] przez Electronic Privacy Information Center [EPIC is a public interest research center in Washington, DC seeking to protect privacy, freedom of expression, and democratic values in the information age] : https://archive.epic.org/privacy/ftc/hirevue/
Pomyłki przy wykorzystywania AI przez wymiar sprawiedliwości
Kłopoty nowojorskiego prawnika (S. Schwartz), który zaufał <pomocy>, „halucynującego” ChataGPT (<Inteligentny> ChatGPT <wymyślił> nieistniejące orzeczenia sądowe: „Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines, and Miller v. United Airlines”: B. Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT , 29 V 2023 [https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html]
Darshali A. Vyas et al., Hidden in Plain Sight – Reconsidering the Use of Race Correction in Clinical Algorithms, 383 N. Engl. J. Med.874, 876-78 (Aug. 27, 2020), https://www.nejm.org/doi/full/10.1056/ NEJMms2004740
Andrew D. Selbst. An Institutional View Of Algorithmic Impact Assessments. Harvard Journal of Law & Technology. June 15, 2021. https://ssrn.com/abstract=3867634;
Dillon Reisman, Jason Schultz, Kate Crawford, and Meredith Whittaker. Algorithmic Impact Assessments: A Practical Framework for Public Agency Accountability. AI Now Institute Report. April 2018. https://ainowinstitute.org/aiareport2018.pdf
The Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, SB 1047, Kalifornia próbuje regulować systemy AI, aby „mitigate the risk of catastrophic harms from AI models so advanced that they are not yet known to exis”, 2024, omówienie
Virginia Doellgast and Sean O’Brady. Making Call Center Jobs Better: The Relationship between Management Practices and Worker Stress. A Report for the CWA. June 2020. https://hdl.handle.net/1813/74307
Wyrok Federalnej Komisji Handlu (Federal Trade Commision, FDC) skazujący Twittera na karę 150 mln dolarów za manipulacje użytkownikami portalu społecznościowego , maj 2022: https://www.ftc.gov/news-events/news/press-releases/2022/05/ftc-charges-twitter-deceptively-using-account-security-data-sell-targeted-ads [w orzeczeniu czytamy: “As the complaint notes, Twitter obtained data from users on the pretext of harnessing it for security purposes but then ended up also using the data to target users with ads,” said FTC Chair Lina M. Khan. „This practice affected more than 140 million Twitter users, while boosting Twitter’s primary source of revenue.”]
Komisja Europejska rozpoczęła dochodzenie wobec X (Elona Muska) i TikTokao manipulację informacją (w sprawie ataku Hamasu na Izrael) w oparciu o prawo o usługach cyfrowych (Digital Services Act; DSA; 2022), które wymaga od platform cyfrowych „to remove illegal and harmful content”( „illegal content (…) and protect their services against manipulative techniques„); (EU opens probe into X in test of new tech rules, pressure on TikTok, Meta; October 13, 2023); https://www.reuters.com/technology/eus-breton-gives-tiktok-ceo-24-hours-detail-disinformation-response-2023-10-12/
Komisja Europejska wszczęła formalne postępowanie (w trybie priorytetowym) przeciwko Meta M. Zuckerberga (Facebook i Instragram) o ewentualnenaruszenie dóbr nieletnich (mechanizm uzależniania), z racji „wprowadzającej w błąd reklamy, treści politycznych, mechanizmów zgłaszania i działania, dostępu naukowców do danych, a także w sprawie niedostępności skutecznego dyskursu obywatelskiego osób trzecich w czasie rzeczywistym i narzędzia monitorowania wyborów przed wyborami do Parlamentu Europejskiego”. (The Digital Services Act), Facebook i Instagram mogą uzależnić? KE sprawdza, 17 maja 2024, https://poland.representation.ec.europa.eu/news/facebook-i-instagram-moga-uzaleznic-ke-sprawdza-2024-05-17_pl?prefLang=en.
Stosowanie AI w opiece zdrowotnej i związane z tym zagrożenia
Ethics and governance of artificial intelligence for health: WHO guidance, Geneva: World Health Organization; 2021[dokument WHO ostrzegający przed zagrożeniami ze strony SI, szczegółowe analizy, w bibliografii 336 pozycji, linki do artykułów i innych publikacji] https://www.who.int/publications/i/item/9789240029200]
Artykuł nt etycznych aspektów stosowania AI w opiece zdrowotnej: T. Golnar Karimian,Elena Petelos, Silvia M. A. A. Evershe, Ethical issues of the application of artificial intelligence in healthcare: a systematic scoping review, AI and Ethics volume 2, pages 539–551 (2022)
Neuralink (E. Musk) projekt stosowania mózgowych implantów w marcu 2023 nie uzyskał zgody U.S. Food and Drug Administration (FDA) na prowadzenie prób klinicznych ( RACHAEL LEVY i MARISA TAYLOR, Raport Specjalny na ten temat: U.S. regulators rejected Elon Musk’s bid to test brain chips in humans, citing safety risks. marzec 2023) [https://www.reuters.com/investigates/special-report/neuralink-musk-fda/]. Czytamy w Raporcie, że „FDA had pointed out several safety concerns to Neuralink that needed to be addressed before sanctioning human trials, Some of the issues involved the lithium battery of the device, the possibility of the implant’s wires migrating within the brain, and the challenge of safely extracting the device without damaging brain tissue”.
„Eksperyment” na pierwszym pacjencie (Noland Arbaughow), któremu w styczniu 2024 roku wszczepiono do mózgu implant umożliwiający połączenie z komputerem. Po pięciu miesiącach „eksperymentu” Neuralink sygnaliuje kłopoty i poszukują kolejnego chętniego. Rachael Levy, Exclusive: Musk’s Neuralink has faced issues with its tiny wires for years, sources say, Reuters, 15 V 2024, https://www.reuters.com/technology/musks-neuralink-has-faced-issues-with-its-tiny-wires-years-sources-say-2024-05-15/
Moralne poprawianie (moral AIenhancement) człowieka przy pomocy AI?
Francisco Lara, Why a Virtual Assistant for Moral Enhancement When We Could have a Socrates?Science and Engineering Ethics, 27, 42 (2021) [https://link.springer.com/article/10.1007/s11948-021-00318-5] [prezentacja stanowisk w sprawie moral AIinhancement]
Durbin J., Vive To Spend $10 Million on VR Projects That ‘Create Positive Impact (program VR for Impact). Vive zapowiedź na WFE w Davos 2017 przeznaczenia 10 000 000 dolarów (podaje się, że zgodnie z Agendą 2030) “to drive VR content and technologies that will create positive impact and change,” . UploadVR.; 2017 [https://uploadvr.com/vive-vr-for-impact-10-million/
Project Debater, IBM („Project Debater is the first AI system that can debate humans on complex topics. The goal is to help people build persuasive arguments and make well-informed decisions) [https://research.ibm.com/interactive/project-debater/].
Panel na WEF 2023: Generative AI. As artificial intelligence moves from analysing existing data to creating new text, images and videos, how will these improvements shift the augmentation versus automation debate and what implications will it have for industries? Speakers: Azeem Azhar, Priya Lakhani, Hiroaki Kitano, Refik Anadol, Jean-Noël Barrot, Kay Firth-Butterfield (17 stycznia 2023) [https://www.weforum.org/events/world-economic-forum-annual-meeting-2023/sessions/generative-ai]
Wypowiedź Clausa Schwaba podczas World Government Summit (WGS), Dubaj, 14 lutego 2023 („Who masters those technologies – in some way – will be the master of the world.” (zaakcentował technologie posługujące się <sztuczną inteligencją> [wymienił także <Metaverse>, ale także „nowe technologie kosmiczne, biologia syntetyczna, i mógłbym tak dalej„]: https://twitter.com/disclosetv/status/1625624806203817992
Globalna manipulacja przy pomocy serwisów społecznościowych?
Elon Musk: „I Bought Twitter To Prevent The End Of Civilization From An Information Technology Weapon„,”an information technology weapon to propagate what is essentially a mind virus to the rest of earth. And the outcome of that mind virus is very clear if you walk around the streets of downtown San Francisco. It is the end of civilization”, Wywiad Rogana z Elonem Muskiem w „The Joe Rogan Experience”, 32 October, 2023, https://open.spotify.com/episode/7edwvm2c6Ieuzun4xtFYCJ?si=0d2460f0e4ae45e7&nd=1
Nie tylko „halucynacje” ale także „demencja”? 20/21 lutego 2024 użytkownicy ChatGPT zgwałszają poważne problemy z jego funkcjonowaniem (najczęstszym błędem pisanie w Spanglishu [kombinacja hiszpańskiego i angielskiego]. H. Tur, ChatGPT nie tylko ma halucynacje. Zaczyna pokazywać klasyczne oznaki demencji, CHIP, 22.02. 24, https://www.chip.pl/2024/02/chatgpt-awaria-halucynacje-falszywe-informacje
Możliwość korzystania z AI dla zwalczania pornografii dzięcięcej (CSAM) w internecie
Większość europejczyków chce kontroli internetu przed treściami pedofilskimi (78% banych, 71 %Polaków), 2023, Flash Eurobarometer FL532 : Protection of Children against Online Sexual Abuse, https://data.europa.eu/data/datasets/s2656_fl532_eng?locale=en