Tag Archives: Artificial Intelligence

The escalating water use of AI

Despite efficiency gains in other areas, the exponentially growing demand for AI has led to an increase in the water footprint.

Driven in part by the growth in AI, Google’s scope-1 onsite water consumption (cooling) in 2022 increased by 20% compared to 2021, and Microsoft saw a 34% increase over the same period. The majority of water consumption for server cooling is derived from potable sources.

Additionally, Scope-2 offsite water consumption (electricity generation) is experiencing growth because of AI’s enormous use of computing power. Scope-3 water consumption within the AI supply chain is also mounting. For instance, the fabrication of a single microchip necessitates approximately 2,200 gallons of ultra-pure water. The staggering demand for AI processing necessitates the utilization of thousands of these chips.

The escalating water usage associated with AI is a matter of significant concern. We need to address water scarcity, a pressing global concern exacerbated by a rapidly expanding population, dwindling water resources, and ageing water infrastructures. This concern extends beyond the mere magnitude of AI models’ water usage, underscoring the imperative for developers to proactively address the shared global challenge of water scarcity.

Shaolei Ren elucidated this challenge in: ‘How much water does AI consume?’. See here.

I have earlier mentioned this issue in ‘The ecological footprint of Artificial Intelligence’.

Published in a LinkedIn post, December 2024.

Share This:

AI’s Power Demand

AI results in a large increase of data center power demand, and does have a large effect on natural resources.

In 2018, OpenAI concluded that the computing power required to train a large AI model had doubled every 3.5 months from 2012 onwards. The accuracy of results and time efficiency that can be achieved by harnessing the computing power of a vast number of computers in data centres necessitates a considerable amount of electricity. A significant proportion of data centres globally continue to rely, to some extent, on fossil fuels, resulting in a notable surge in CO₂ emissions.

In 2020, researchers at the University of Massachusetts conducted an analysis of several natural language processing (NLP) models and determined that the energy expenditure associated with training a single model resulted in CO2 emissions of approximately 300,000 kg on average (equivalent to 125 return flights from New York to Beijing). The training of ChatGPT-3 has been found to require the consumption of 1.3 gigawatt hours of electricity, resulting in the generation of 550,000 kg of CO2. It is estimated by Bloomberg that the energy consumption necessary for training is only 40% of that required for operational purposes. Moreover, the training process necessitates the consumption of approximately 700,000 litres of water for the purpose of computer cooling. This quantity of water is equivalent to that which would be required by a nuclear power plant cooling tower.

In 2023, data centres operated by Google extracted a total of 24 billion litres of water from the environment. This represents a 14% increase compared to figures recorded in the previous year. In 2022, 20 billion litres of water were employed for the purpose of cooling. Two-thirds of this quantity was comprised of potable water.

Furthermore, data from Microsoft’s facilities indicate a 34% increase in cooling water consumption during the same period. In 2024, Microsoft’s CO₂ emissions were 30% higher than in 2020, while Google’s emissions increased by 48% over the past five years.

See this blogpost by GoldmanSachs

For literature used to compose this post, see here.

Publishd in a LinkedIn-post, november 2024.

Share This:

Co-Intelligence

I have recently read Ethan Mollick’s book, Co-intelligence. Living and working with AI. The book is well written and an easy and enjoyable read. The author explores the potential of conversational AI (LLMs) in the context of personal and professional realms.

As the book makes clear, LLMs are adept at creative work and at identifying unanticipated correlations. It can falter in elementary intellectual pursuits. It is a statistical model of language that generates a plausible imitation of human responses by calculating the probability of clusters of words. The responses are devoid of cognitive processes, knowledge, or logical validation. They are the result of calculations regarding the optimal sequence of words. The provided response does not need to be accurate or true.

Mollick’s book presents four guiding principles for the practical and ethical use of LLMs:
[1] Use LLMs to investigate and delineate the boundaries of their functionalities.
[2] Engage in active monitoring of the responses provided, ensuring that they are accurate, true, and free from hallucinations.
[3] Treat conversational AI as a person. Critique its answers, clarify where necessary, reformulate questions, and offer feedback.
[4] Treat every LLM as if it is the least sophisticated model you ‘will ever use,’ recognizing that new iterations or models may offer improvements.

What struck me is the banality of conversational AI. It will be unknown whether the words were written by conscious minds or AIs and have ‘feeling’. Mollick refers to this as a ‘crisis of meaning’, but a crisis of language seems more accurate.

Mollick emphasizes the concept of ‘co-intelligence’, humans and AI working together to enhance productivity, creativity and decision-making. He proposes a symbiotic relationship in which AI tools enhance human capabilities. The book is full of anecdotes, examples, and texts that seek to demonstrate the veracity of that proposition. There is, however, no theoretical basis to support this assertion.

In contradiction, an article in Nature Human Behaviour in October 2024 found that, on average, human–AI combinations performed significantly worse than the best of humans or AI alone. See: M. Vaccaro, A. Almaatouq, and T. Malone (2024). ‘When combinations of humans and AI are useful: A systematic review and meta-analysis’, Nature Human Behaviour (2024). https://doi.org/10.1038/s41562-024-02024-1.

The book’s implications for the use of conversational AI in an educational context are interesting. This is in line with Mollick’s educational experience at the Wharton School of Business. He requires the use of such tools by his students. Allegedly, a teacher has the potential to significantly enhance the quality of learning outcomes.

The book’s lack of academic depth and its anecdotal nature make it an excellent introduction for those with limited knowledge of AI. I can recommend reading it, especially for students.

E. Mollick (2024). Co-Intelligence: Living and Working with AI, Penguin Portfolio, 256 pp.

Published as e LinkedIn post here.

Share This:

Biologic Computer ?

Luciano Floridi and Anna Nobre have published an interesting paper on SSRN about ‘conceptual borrowing’, the process by which a new discipline develops its technical vocabulary partly by ‘borrowing’ concepts from neighbouring disciplines, often giving the concept a new meaning.

The authors argue that through this extensive conceptual borrowing, the discipline of AI has ended up ‘anthropomorphizing’ computers, as computational brains with psychological properties. The brain and cognitive sciences themselves have developed a vocabulary that has led to descriptions of the brain and mind as if it were a computer that processes information, as if it were a ‘biological computer’.

This mixing of the jargon of these disciplines can lead to confusion and even harmful assumptions and consequences.

Artificial intelligence and human intelligence are far apart, but using the vocabulary of other, seemingly closely related disciplines can give a different idea. Clarity about concepts is really important, especially when using a concept in a new context.

The same happens with concepts from archival science being used in information and computer science with a completely different meaning. And vice versa! It leads to confusing discussions where people are talking about the same thing but completely misunderstand each other because of different meanings!

Interesting paper! Essential reading if you work with AI specialists!

L. Floridi, and A. Nobre (2024). Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences (Centre for Digital Ethics (CEDE) Research Paper, No, forthcoming. Published on SSRN.

Published as a LinkedIn post here in september 2024.

Share This:

Information governance and Small Language Models

The advent of large, comprehensive AI models (such as OpenAI’s GPT-4) has had a profound impact on society, both beneficial and detrimental. The positive impact of AI includes stimulating innovation, generating audio, video, and text, and much more. However, the negative impact of AI includes environmental damage, data scraping that is mostly illegal, its immense costs, and it being the source of large amounts of misinformation, deep fakes, and so on.

There appears to be a tendency towards the adoption of smaller, more agile models that are specifically designed to efficiently perform a limited range of tasks. Such models are designed to perform these tasks at reduced cost in comparison to larger models. Such models offer advantages in terms of speed and can be deployed on local devices, thereby eliminating the need for constant cloud connectivity. This presents a substantial advantage for applications that require cost-effective, real-time processing and privacy.

Examples: Microsoft’s Phi models that, despite being 1/100th the size of GPT-4, can perform many tasks nearly as well. Or Apple’s initiative to run AI software entirely on phones using small models.

The reduction in data foorprint may prove to be a potential public relations asset.

The governance of information will be of significant importance in the utilization of these smaller models.

1. The functionality of small-scale AI models is contingent upon the quality of the data on which they rely. Consequently, these models require access to clean, accurate, and well-curated datasets to operate effectively. Information governance is a crucial aspect of this endeavour.

2. It is essential to guarantee that AI models adhere to regulatory standards and data privacy standards. Information governance frameworks assist organizations in navigating intricate regulatory terrains and implementing vital safeguards.

3. It is imperative that users and stakeholders have confidence in the impartiality, transparency, and fairness of AI models. The implementation of information governance practices, such as data lineage tracking and bias audits, facilitates the ethical design and use of those models.

What further arguments could be put forth to demonstrate the importance of information governance specialists within organizations?

Published in a post on LinkedIn in september 2024.

This post was a response on ‘Why Information Governance is Critical to the Success of Smaller, Nimbler AI Models’, published here.

Share This:

Vertalingen: ‘Ecological footprint’ en ‘Archiving in 2050’

Op verzoek van enkele van mijn internationale relaties heb ik mijn onlangs gepubliceerde artikelen: ‘De ecologische voetafdruk van Artificial Intelligence’ en ‘Archivering in 2050’ vertaald naar het Engels. Ik neem beide vertalingen hieronder op. Ze zijn vrij om te downloaden en te verspreiden.

In response to requests from several of my international colleagues, I have translated two recently published articles, ‘De ecologische voetafdruk van Artificial Intelligence’ and ‘Archivering in 2050’, into English. Both translations are presented below and are available for download and distribution at no cost.

Follow ‘Continue Reading’ to view and download.

Continue reading

Share This:

Archivering in 2050

Al bijna een jaar geleden publiceerde ik een artikel over de toekomst van archivering, Archivering in 2050, in het Archievenblad. Ik leidde dat artikel als volgt in:

“In 2012 gaf ik in ‘Archiving should be just like an Apple’ een samenvatting van hoe archivering zich zou kunnen gaan ontwikkelen, namelijk het creëren van een omgeving waarin archivering volledig geautomatiseerd plaatsvindt. Het idee was dat gebruikers geen of nauwelijks handelingen hoeven te verrichten om informatie contextueel te verwerken en op te slaan en dat archivering een achtergrondproces wordt. Medewerkers in organisaties doen hun werk, zonder zich af te vragen hoe informatie wordt opgeslagen en gearchiveerd. Ze kunnen erop vertrouwen dat informatie beschikbaar is op het benodigde moment (ongeacht wanneer dat is), voorzien van metadata om context, relevantie en kwaliteit ervan te kunnen beoordelen. Datzelfde geldt ook voor de informatie die als cultuurhistorisch erfgoed bewaard wordt in archief- bewaarplaatsen. Gebruikers van dat erfgoed moeten daarvan op diezelfde intuïtieve manier gebruik kunnen maken en die archiefinformatie kunnen vinden en gebruiken, voorzien van alle context die nodig is om die informatie te kunnen interpreteren. Dat proces kan met allerlei tools en technieken worden ondersteund, zoals ‘artificial intelligence’ (AI) en ‘machine learning’ (ML). Informatie, ongeacht waar deze bewaard wordt, moet als het ware met een druk op de knop beschikbaar zijn, vergezeld van ontstaans-, gebruiks- en beheer(s)context.”

Ik vervolgde dat even verderop met:

“De toekomst is altijd ongewis, maar op basis van de huidige stand van de informatietechnologie durf ik, voortbouwend op mijn schets van 2012, wel een blik te werpen op 2050. Dat is ver genoeg weg om zelf niet meer geconfronteerd te worden met het feit dat wat ik verwacht, niet blijkt te kloppen (en die kans is uiteraard groot).”

Ben benieuwd wat de reacties hierop zijn!

Een reactie van Hans van Bommel op Linked in: ArQiver in lijn met de visie 2050 van Geert-Jan van Bussel. Zie alhier.

Citatie: G.J. van Bussel, ‘Archivering in 2050. Een blik op de toekomst’, Archievenblad, jgn. 127, no. 3, 2023, pp. 6-9.

Share This:

Can an Artificial Mind See the Man in the Moon?

In 2019 hield Brianna Brownell, een data scientist en een zelfbenoemde futurist, een TED Talk over Artifical Intelligence en vooral over de verhouding daarmee tot het eigen, menselijke brein. Interessant hier is pareidolie, een psychisch verschijnsel, een vorm van illusie waarbij iemand een zodanige interpretatie van onduidelijke of willekeurige waarnemingen heeft, dat hij hierin herkenbare dingen meent waar te nemen. De reden voor het verschijnsel ligt in de behoefte van de hersenenom een verband te leggen tussen verschillende elementen, ook als deze er eigenlijk niet zijn. Het gaat dan vooral om patronen die op gevaar kunnen wijzen, zoals het silhouet van een roofdier. Het is een vrij alledaags verschijnsel. Net zoals de Mannetje in de Maan (of Mars). Brownell schrijft vervolgens: ‘We consider these human flaws full of meaning, but yet fail to extend the same grace to the artificial intelligence that we are building.’ Daar noemen we het namelijk een ‘error’.

Gebaseerd op de vondst van een object aan het begin van de menselijke geschiedenis, zo’n drie miljoen jaar geleden, duikt Brownell in de manier waarop he menselijk brein objecten in de wereld ‘ziet’ en hoe een AI deze objecten ziet. Misschien dezelfde dingen, maar wellicht ook iets volledig afwijkends.

En Brownell gaat verder:

‘We consider these errors that will be fixed by better algorithms, more advanced technology, and larger data sets. Most of the time we are right to think of it this way: there are significant dangers to ignoring or downplaying the bias that creeps into the machine learning systems that we build: systematic inequality, lack of opportunity, and prejudice. Sometimes when we see ourselves reflected in what we build we don’t like the result. But thinking of it only as a deficit denies our own biases and flaws as only deficits. Especially when our own pareidolia, which is a bias in our cognitive system, we consider full of meaning. Like the Man in the Moon, it is a commonality that connects us with one another. It has inspired stories that have shaped human culture for millennia.’

Dus: waarom dat niet accepteren van een AI? Maar hoe kan dat worden herkend?

Voor de tekst van de voordracht, zie hier. (scroll naar onder)

Share This:

The danger of AI is weirder than you think

Het ‘gevaar’ van kunstmatige intelligentie is niet dat het in opstand gaat komen tegen degenen die het maakten, maar dat het precies datgene doet wat wij vragen om te doen. Dat is de stelling van Janele Shane in deze TED-talk in Vancouver van alweer drie jaar geleden.

Door het delen van de vreemde, soms alarmerende gevolgen van AI algoritmes bij het oplossen van menselijke problemen (maken van nieuwe ijssmaken of het herkennen van auto’s op de weg) laat ze zien waarom kunstmatige intelligentie inderdaad ‘kunstmatig’ is en niet op kan tegen het ‘echte’ brein.

De werkelijkheid van kunstmatige intelligentie kan nog niet tippen aan wat de ‘hype’ ervan maakt. Het mag dan een ‘gift to society’ zijn, vooralsnog maakt het dat nog niet waar.

Shane is een onderzoeker die zich intensief bezig houdt met kunstmatige intelligentie. Ze houdt ook een humoristische machine learning blog bij, AI Weirdness, waar ze over de soms hilarische, soms verontrustende manieren schrijft waarop algoritmes de plank misslaan.

Ik werd herinnerd aan deze TED-talk toen ik onlangs haar boek uit 2019 in handen kreeg: You Look Like A Thing And I Love You: How AI Works And Why It’s Making The World A Weirder Place. Veel topics die ze bespreekt in haar blog worden hier voor een globaal publiek gepresenteerd, waarbij ze door de hype prikt en kunstmatige intelligentie terug brengt tot wat het nu is: interessant, met vele mogelijkheden, maar de kinderschoenen nog niet ontgroeid.

Share This:

How Far is Too Far? | The Age of A.I.

Kan AI muziek maken? Kan het emoties voelen? Leeft het? Will.i.am en Mark Sagar proberen de beperkingen van de machine te overwinnen. ‘How far is too far, and how much further can we go?’

The Age of AI is een achtdelige documentaireserie, gepresenteerd door Robert Downey jr., die laat zien hoe kunstmatige intelligentie, machineleren en neurale netwerken de wereld zouden kunnen veranderen.

Share This:

Deepfakes and the technology behind it: A BBC Click documentary

Deepfake is een samentrekking van ‘deep learning’ en ‘fake’. Het is een techniek voor het samenstellen van menselijke beelden op basis van kunstmatige intelligentie en is met behulp van online software door oedere leek te realiseren. Het wordt gebruikt om bestaande afbeeldingen en video te combineren en over elkaar te zetten. De benaming “deepfake” ontstond in 2017. Deepfakes werden al gebruikt om pornografische video’s te maken van bekendheden, maar ze kunnen ook gebruikt worden om nepnieuws te maken, wat bijvoorbeel bij verkiezingscampagnes uiterst schadelijke en onwenselijke effecten kan hebben.

BBC Click maakte in 2018 een korte documentaire over de deepfake, die ik hieronder laat volgen.

Share This:

Rise of the Machines

Een hoogst verontrustende film over de negatieve effecten van kunstmatige intelligentie. Een interessante film, dat wel. Deze documentaire gaat in op de race om AI te perfectioneren. Onderzoekers geloven dat een singulariteit zal worden bereikt over niet al te lange tijd. Dat betekent dat een machine zal ontstaan die menselijke controle zal kunnen ontlopen, wat grote consequenties kan hebben voor de menselijke beschaving.

Maar zo heet als de soep hier wordt opgediend? Dat is wel erg overdreven.

AI is nog lang niet zover dat het menselijke brein kan worden vervangen. Iets begrijpen in context bijvoorbeeld is nog niet mogelijk. Er is nog een hele weg te gaan en singulariteit zal nog een hele tijd uitblijven. Maar dat er zowel positieve als negatieve kanten aan AI zitten, zal niemand ontkennen. Vandaar ook dat het ontstaan van een AI ethiek van groot belang is.

De drie wetten van Isaac Asimov voor de robotica zijn niet waterdicht, maar zouden een goed begin zijn:

Eerste Wet

Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet

Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet

Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Adaptaties van deze drie wetten laten de essentie van de Eerste Wet weg, iets wat de problemen kan veroorzaken die in de film aan de orde worden gesteld.

Share This:

AI and its ethics

“Are we facing a golden digital age or will robots soon run the world?”

Het is nodig om ethische standaarden te formuleren voor de omgang met kunstmatige intelligentie en de vraag te beantwoorden wat ons mensen uniek maakt.

“Mankind is still decades away from self-learning machines that are as intelligent as humans. But already today, chatbots, robots, digital assistants and other artificially intelligent entities exist that can emulate certain human abilities”.

Wetenschappers en AI experts zijn met elkaar in overeenstemming dat het een race tegen de tijd is. We hebben ethische standaarden nodig voordat de technologie ons inhaalt.

De risico’s zijn groot. Professor Jürgen Schmidhuber voorspelt dat AI robotfabrieken in de ruimte kan exploiteren, de Zweeds-Amerikaanse natuurkundige Max Tegmark waarschuwt voor een totalitaire AI surveillance staat (die in China aan het ontstaan is) en de filosoof Thomas Metzinger voorspelt een dodelijke AI wapenwedloop. Maar Metzinger gelooft ook dat Europa (in het bijzonder) een pioniersrol kan spelen aan het begin van de AI-era: het maken van een bindende internationale “code of ethics”.

Deze video gaat over de ethische kant van de technologie, niet zozeer over het kunnen, maar vooral over het willen. Zeer de moeite waard!

Share This:

Machine Learning: Living in the Age of AI

De meeste mensen vandaag de dag profiteren op de een of andere manier van kunstmatige intelligentie. Van internet browsing, smart phone apps tot functionaliteiten in nieuwe auto’s: de technologie wordt steeds meer als gemak ervaren in de dagelijkse praktijk.

‘Because the evolution of self-learning technologies continues to advance at such a rapid pace, it can be difficult to assess where it’s ultimately going and the extent to which it could alter our lives in the process’.

De video geeft een levendig en informatief beeld van de mogelijkheden van deze technologie.

De toon van de video is er een van positiviteit: het legt de nadruk op het onderscheiden van de hype van realiteit. ‘The filmmakers outline the inner building blocks of artificial intelligence, and demonstrate how the technology reads, interprets and expands upon data. Most of the film’s running time is devoted to showcasing how AI can benefit the future of mankind in areas as diverse as agriculture, medical care and travel.’

De video is niet blind voor de mogelijke problemen, maar wat meer aandacht voor privacy en ethiek had niet misstaan. Desalniettemin: het geeft een goed beeld van wat kan en wat uiteindelijk mogelijk is (voor zover we dat nu weten).

Share This:

The Rise of Artificial Intelligence

Een film over de opkomst van kunstmatige intelligentie, de wijze waarop het in onze wereld opduikt, de voor- en nadelen en dat alles op basis van een van de gidslanden op dit vlak: Canada!

Share This:

Amazon, Jeff Bezos and collecting data

Geen bedrijf dat meer data verzameld en opslaat dan Amazon, voorheen alleen maar een online boekverkoper. Jeff Bezos, de baas van het bedrijf, is een van de rijkste mannen ter wereld geworden. Elke tweede euro in online handel wordt besteed bij Amazon.

Over Amazon, dataverzameling en wat het bedrijf daarmee kan doen: daar gaat deze video over. Het is een documentaire van DW Documentary. Zie hier hoe de documentaire wordt geïntroduceerd:

‘Is the IT giant, with its unabated growth, about to turn our economic system upside down? Amazon is a machine that can simultaneously observe, compare and analyze more than 300 million people worldwide. The company is not just a marketplace, market supervisor and provider of more and more services and consumer items – it also controls all the data streams in this market and uses them to its own benefit. Who suspects that a single click on an Amazon page will forward information to the company that fills a printed DIN-A-4 page? A conversation with Alexa, watching a streaming offer on Amazon-Prime, ordering vegetables via Amazon-Fresh – all this put together creates a whole library of information about every customer. The group collects everything – it just won’t reveal what conclusions it draws from it. What would be possible if data from other, new business areas were added? In the USA, Amazon is also active in the health and insurance sectors, and police officers are using its facial recognition software to search for wanted persons’.

Deze documentaire van mei 2019 is dan ook een ‘must see’!

Share This:

The great leap forward

Een documentaire van DW Documentary over Artificial Intelligence en algoritmes, van 2019.

De film wordt als volgt geïntroduceerd:

‘Developments in artificial intelligence (AI) are leading to fundamental changes in the way we live. Algorithms can already detect Parkinson’s disease and cancer, and control both cars and aircraft. How will AI change our society in the future? This documentary journeys to the hot spots of AI research in Europe, the USA and China, and looks at the revolutionary developments which are currently taking place’.

‘The rapid growth of AI offers many opportunities, but also many dangers. AI can be used to create sound and video recordings which will make it more and more difficult to distinguish between fact and fiction. It will make the world of work more efficient and many professions superfluous. Algorithms can decide whether to grant loans, who is an insurance risk, and how good employees are’.

‘But there is a huge problem: humans can no longer comprehend how algorithms arrive at their decisions. And another big problem is AI’s capacity for widespread surveillance. The Chinese city of Rongcheng is already using an AI-supported ‘social credit system’ to monitor and assess its citizens. Does AI pose a danger to our personal freedoms or democracy? Which decisions can we leave to the algorithms – and which do we want to? And what are AI’s social implications?’

Het is een film van Tilman Wolff en Ranga Yogeshwar, ongeveer drie kwartier. De moeite meer dan waard!

Share This:

AI is not good or bad, nor is it neutral, TEDx van Lokke Moerel

In een TEDx in Amsterdam ging prof.dr. Lokke Moerel, hoogleraar Global ICT Law aan de Universiteit van Tilburg, in op de positieve en negatieve aspecten van kunstmatige intelligentie. Ze gaat uitgebreid in op de grote impact die kunstmatige intelligentie heeft op de ontwikkeling van (en het bewustzijn aangaande) menselijke vooronderstellingen. Want kuntmatige intelligentie kan die vooroordelen ten goed en ten kwade tot uitdrukking brengen. Het is immers niet neutraal. De kwaliteit van de data die door de algoritmes wordt geanalyseerd is sterk bepalend voor wat die ‘intelligentie’ kan doen. Lokke Moerel behoort tot de belangrijkste privacy advocaten ter wereld. Ze is onderdeel van het privacy en cybersecurity team van het Amerikaanse advocatenkantoor Morrison & Foerster. De Ted-talk hieronder schetst in tien minuten de essenties van het feit dat AI niet neutraal is.

Share This: