To be recommended: The Unaccountability Machine

D. Davies (2024). The Unaccountability Machine. Why Big Systems Make Terrible Decisions — and How the World Lost Its Mind, Profile Books, 304 pp.

A passenger is refused permission to board an aircraft and makes a plea to a sympathetic flight attendant. Regrettably, the passenger’s grievance pertains to a company policy, and the flight attendant is unable to assist. This scenario exemplifies a scenario in which the onus of decision-making is entrusted not to an individual, but rather to a set of predetermined guidelines.

‘The unsettling thing about this conversation is that you progressively realise that the human being you are speaking to is only allowed to follow a set of processes and rules that pass on decisions made at a higher level of the corporate hierarchy. It’s often a frustrating experience; you want to get angry, but you can’t really blame the person you’re talking to. Somehow, the airline has constructed a state of affairs where it can speak to you with the anonymous voice of an amorphous corporation, but you have to talk back to it as if it were a person like yourself.’ (p. 16)

Davies poses the question of why errors and crises never appear to be attributable to any specific individual or entity. The blame is often attributed to ‘the system’, ‘the computer’, ‘the algorithm’, ‘the AI’, or similar entities. Davies terms this phenomenon an ‘accountability sink’, a structural element that absorbs or obscures the consequences of a decision, thereby preventing direct accountability.

The phenomenon of accountability sinks, as postulated by Davies, serves to impede individuals from both willing and unwillingly making or changing decisions and, consequently, being held directly accountable for them.

Continue reading

Share This:

The escalating water use of AI

Despite efficiency gains in other areas, the exponentially growing demand for AI has led to an increase in the water footprint.

Driven in part by the growth in AI, Google’s scope-1 onsite water consumption (cooling) in 2022 increased by 20% compared to 2021, and Microsoft saw a 34% increase over the same period. The majority of water consumption for server cooling is derived from potable sources.

Additionally, Scope-2 offsite water consumption (electricity generation) is experiencing growth because of AI’s enormous use of computing power. Scope-3 water consumption within the AI supply chain is also mounting. For instance, the fabrication of a single microchip necessitates approximately 2,200 gallons of ultra-pure water. The staggering demand for AI processing necessitates the utilization of thousands of these chips.

The escalating water usage associated with AI is a matter of significant concern. We need to address water scarcity, a pressing global concern exacerbated by a rapidly expanding population, dwindling water resources, and ageing water infrastructures. This concern extends beyond the mere magnitude of AI models’ water usage, underscoring the imperative for developers to proactively address the shared global challenge of water scarcity.

Shaolei Ren elucidated this challenge in: ‘How much water does AI consume?’. See here.

I have earlier mentioned this issue in ‘The ecological footprint of Artificial Intelligence’.

Published in a LinkedIn post, December 2024.

Share This:

The data’s afterlife

Have you ever thought about your data’s afterlife? The digital footprints that we leave behind after our demise are so extensive that our identities can persist beyond our mortal existence.

The advent of AI has enabled the possibility to interact with departed loved ones. A young man is still able to compete with his father in an old Xbox racing game, utilizing his father’s saved games. The ‘digital afterlife industry’ provides a posthumous delivery of video, audio, and written messages. The use of AI enables the replication of language patterns and personality traits through the analysis of extensive personal data.

In The Afterlife of Data. What Happens to Your Information When You Die and Why You Should Care, Carl Öhman, an assistant professor at Uppsala University, addresses the issue of data ownership and the decision-making process regarding the fate of our digital assets after our demise. Who assumes control will effectively control future access to this digital past. This information (or substantial portions thereof) will persist, barring the dissolution of Meta (Facebook) and Alphabet (Google) or a conflict that results in the destruction of the data centres used to store these data.

The afterlife of data raises a multitude of ethical, economic, and legal inquiries that are currently unaddressed. The concept of a legal right to privacy does not extend to the deceased. Secrets that were previously thought to be confined to the grave can, in some cases, have a detrimental impact on the reputation of the deceased. In theory, individuals have the option to delete their data, at least any materials they do not wish to be accessible to the general public. Data, however, will endure. Some parents have attempted to access and process the data of their deceased child, but have been unsuccessful. The courts have determined that it is not within their purview to make such decisions, leaving it to the platform’s owners. Neither the EU nor the US has legislation in place governing post-mortem privacy.

The data is held by many organizations, the majority of which are unknown. Most are unwilling to delete these data. Öhman expresses concerns that profit-driven businesses may lack the reliability required to act as guardians of digital heritage. He questions whether governments or NGOs would be more suitable curators, but is unsure and cites George Orwell’s observation that ‘who controls the past, controls the future.’ However, these data could also prove beneficial to historians, policymakers, and society at large. Roy Rosenzweig observed that the data provide researchers with an ‘essentially complete historical record’.

The implications of all of this are significant and warrant further reflection. ‘The Afterlife of Data’ is an insightful book that offers a compelling perspective on the potential implications of data in the afterlife. It is highly recommended reading for those interested in this topic.

Published in a LinkedIn post, december 2024.

Share This:

De Nabije Toekomst van Archivering

Nieuwe publicatie!

‘De toeslagenaffaire is nog niet voorbij of de malaise van de WIA buitelt eroverheen. De chaos bij de overheid groeit zo uit tot ongekende proporties waardoor de democratie verder onder druk komt te staan. Niet door het gewoonlijke en bijbehorende politiek gekonkel in de Tweede Kamer, maar omdat het ambtelijk apparaat zich naar binnen heeft gekeerd en het contact met burgers en bedrijven heeft verloren, uitzonderingen daargelaten.’

Dus worden de oude systemen en bestaande technieken gebruikt om de problemen aan te pakken. In een zoektocht naar oplossingen lijkt geld niet het probleem: er zijn miljarden uitgegeven zonder resultaat. Maar over de echte aanpak van de toeslagenaffaire is nooit goed nagedacht.

Welke feiten, middelen of regelingenwaren nodig voor effectieve actie? Waarom werden toeslagen eigenlijk stopgezet bij vermeende fraude? Is het probleem überhaupt oplosbaar? Handmatige informatieverzameling zonder bruikbaarheid voor gedupeerden, medewerkers, belangenbehartigers en machines om intelligent over regelingen heen te redeneren, leveren geen resultaten op. Technologieën van 20 jaar geleden, toen state-of-the-art, werken echt niet meer en alleen nieuwe middelen, nieuwe techniek inzetten, is het recept voor een volgende affaire.

Techniek zonder een goed concept en een heldere architectuur geeft slechts een illusie van hoop. De
status quo hindert de oplossing omdat de communicatie al in de basis is verstoord. Het is onbeheersbaar
complex geworden. De oplossing ligt in openheid, we moeten als overheid anders leren denken: transparant zijn en fouten erkennen.

Citatie: Geert-Jan van Bussel en Hans van Bommel (2024). ‘De nabije toekomst van archivering’, jrg, 78, november 2024, nr. 39, pp. 24-25.

Share This:

AI’s Power Demand

AI results in a large increase of data center power demand, and does have a large effect on natural resources.

In 2018, OpenAI concluded that the computing power required to train a large AI model had doubled every 3.5 months from 2012 onwards. The accuracy of results and time efficiency that can be achieved by harnessing the computing power of a vast number of computers in data centres necessitates a considerable amount of electricity. A significant proportion of data centres globally continue to rely, to some extent, on fossil fuels, resulting in a notable surge in CO₂ emissions.

In 2020, researchers at the University of Massachusetts conducted an analysis of several natural language processing (NLP) models and determined that the energy expenditure associated with training a single model resulted in CO2 emissions of approximately 300,000 kg on average (equivalent to 125 return flights from New York to Beijing). The training of ChatGPT-3 has been found to require the consumption of 1.3 gigawatt hours of electricity, resulting in the generation of 550,000 kg of CO2. It is estimated by Bloomberg that the energy consumption necessary for training is only 40% of that required for operational purposes. Moreover, the training process necessitates the consumption of approximately 700,000 litres of water for the purpose of computer cooling. This quantity of water is equivalent to that which would be required by a nuclear power plant cooling tower.

In 2023, data centres operated by Google extracted a total of 24 billion litres of water from the environment. This represents a 14% increase compared to figures recorded in the previous year. In 2022, 20 billion litres of water were employed for the purpose of cooling. Two-thirds of this quantity was comprised of potable water.

Furthermore, data from Microsoft’s facilities indicate a 34% increase in cooling water consumption during the same period. In 2024, Microsoft’s CO₂ emissions were 30% higher than in 2020, while Google’s emissions increased by 48% over the past five years.

See this blogpost by GoldmanSachs

For literature used to compose this post, see here.

Publishd in a LinkedIn-post, november 2024.

Share This:

Co-Intelligence

I have recently read Ethan Mollick’s book, Co-intelligence. Living and working with AI. The book is well written and an easy and enjoyable read. The author explores the potential of conversational AI (LLMs) in the context of personal and professional realms.

As the book makes clear, LLMs are adept at creative work and at identifying unanticipated correlations. It can falter in elementary intellectual pursuits. It is a statistical model of language that generates a plausible imitation of human responses by calculating the probability of clusters of words. The responses are devoid of cognitive processes, knowledge, or logical validation. They are the result of calculations regarding the optimal sequence of words. The provided response does not need to be accurate or true.

Mollick’s book presents four guiding principles for the practical and ethical use of LLMs:
[1] Use LLMs to investigate and delineate the boundaries of their functionalities.
[2] Engage in active monitoring of the responses provided, ensuring that they are accurate, true, and free from hallucinations.
[3] Treat conversational AI as a person. Critique its answers, clarify where necessary, reformulate questions, and offer feedback.
[4] Treat every LLM as if it is the least sophisticated model you ‘will ever use,’ recognizing that new iterations or models may offer improvements.

What struck me is the banality of conversational AI. It will be unknown whether the words were written by conscious minds or AIs and have ‘feeling’. Mollick refers to this as a ‘crisis of meaning’, but a crisis of language seems more accurate.

Mollick emphasizes the concept of ‘co-intelligence’, humans and AI working together to enhance productivity, creativity and decision-making. He proposes a symbiotic relationship in which AI tools enhance human capabilities. The book is full of anecdotes, examples, and texts that seek to demonstrate the veracity of that proposition. There is, however, no theoretical basis to support this assertion.

In contradiction, an article in Nature Human Behaviour in October 2024 found that, on average, human–AI combinations performed significantly worse than the best of humans or AI alone. See: M. Vaccaro, A. Almaatouq, and T. Malone (2024). ‘When combinations of humans and AI are useful: A systematic review and meta-analysis’, Nature Human Behaviour (2024). https://doi.org/10.1038/s41562-024-02024-1.

The book’s implications for the use of conversational AI in an educational context are interesting. This is in line with Mollick’s educational experience at the Wharton School of Business. He requires the use of such tools by his students. Allegedly, a teacher has the potential to significantly enhance the quality of learning outcomes.

The book’s lack of academic depth and its anecdotal nature make it an excellent introduction for those with limited knowledge of AI. I can recommend reading it, especially for students.

E. Mollick (2024). Co-Intelligence: Living and Working with AI, Penguin Portfolio, 256 pp.

Published as e LinkedIn post here.

Share This:

In de bureaulade

Erna Havinga publiceerde onlangs een blogpost waarin ze ingaat op het verschijnsel dat bestuurders compliance issues negeren, zelfs als er auditrapporten liggen die wijzen op misstanden. Ze richt zich vooral op ‘informatiebeveiliging en privacy’.

Het verschijnsel is mij niet vreemd: ik weet dat vele advies- en auditrapporten over problemen met de informatiehuishouding in bureaulades gelegd worden en dat de aanbevelingen slechts marginaal worden opgevolgd. Redenen daarvoor zijn divers, maar een ervan is dat de noodzaak niet zo gevoeld wordt en dat het in ieder geval geen prioriteit heeft.

Die onachtzaamheid speelt al veel langer als het gaat om informatie, informatiemanagement en informatiebeveiliging. Er is genoeg wetenschappelijke literatuur beschikbaar waaruit blijkt dat door organisatie- en medewerkersgedrag vele mooie informatie(beleids)plannen onderuit worden gehaald. En daar doen managers en bestuurders aan mee. Ze hebben de mond vol over ‘informatie op orde’, maar ze kijken het liefst weg als het aan ‘de orde’ komt. Of, ook vaak toegepast, gaan weer een nieuw systeem implementeren dat ‘alle problemen oplost’. Het nemen van ingrijpende beslissingen kan daardoor weer worden uitgesteld en er hoeven ook geen ingrijpende maatregelen genomen te worden om voor ‘gewenst gedrag’ te zorgen.

Wat me wel van het hart moet: ‘hoezo privacy’? Daar gaat het toch helemaal niet over? De AVG spreekt over de ‘inbreuk op de vertrouwelijkheid, integriteit of beschikbaarheid van persoonsgegevens’. Het woord privacy komt helemaal niet voor in de AVG, en dat is niet zo vreemd omdat privacy niet iets is wat beschermd kan worden door een wet.

Privacy by design en Privacy Impact Analyses bestaan niet. Het zijn volgens de AVG ‘gegevensbescherming door ontwerp’ en ‘effectbeoordeling inzake gegevensbescherming’. Dat is iets heel anders en veel concreter dan ‘privacy’. Het gaat dus eigenlijk om informatiebeheer, -management en -beveiliging.

Informatie is iets waar menselijk gedrag en organisatiecultuur moeite mee hebben. Er wordt veel geroepen, maar weinig geregeld en ingegrepen. Hard roepen dat informatie belangrijk is, is makkelijker dan dat echt goed organiseren in een complexe omgeving.

Het is niet zo vreemd dat negatieve auditresultaten niet leiden tot actie. Ingrijpen om ‘gewenst gedrag’ te stimuleren is immers ‘moeilijk’, zeker in de informele organisatieculturen waar vele organisaties prat op gaan.

Voor gedrag in organisaties:

G.J. van Bussel, A Sound of Silence. Organizational Behaviour and Enterprise Information Management, Van Bussel Document Services, Helmond 2020.
Online bron: hier en hier.

E, Havinga (2024), ‘Rapporteren zonder resultaat; de frustratie van elke FG en CISO’. IB&P Blog. Online bron: hier.

Share This:

Harari’s Nexus

I am not the first to comment on Yuval Harari’s new book Nexus. A Brief History of Information Networks from the Stone Age. The reception has been mixed. I was curious to see if Harari would offer more than ‘big ideas’ and ‘big history’ that doesn’t require archival sources and close reading before drawing conclusions. In Sapiens, Harari proposed big ideas with abandon, such as gossip as the basis of the ‘cognitive revolution’ and the agricultural revolution as the ‘biggest fraud’ in history. Both may be big ideas, but they are also untrue. His generalizations paint beautiful, well-written and easy to understand anecdotes, but most of them are just that: anecdotes, mostly unconfirmed, unproven and without context.

Nexus is a disappointing read. The book could have been shorter than the 528 pages Harari expects us to read. There is much that is interesting, even brilliant. But most are anecdotes without context or truisms presented as original ideas. Harari sets out to write about information, switches to writing about information media and, in the end, about artificial intelligence, which is neither.

But perhaps these stories and truisms are at the heart of the book? Early in the book, Harari debunks the ‘naive view of information’, the idea that gathering more information leads to truth, wisdom and power. According to Harari, there is no correlation between information, truth and power. Information networks are not about truth, they are about stories. Think of religions. They are successful because they have a large information network and they tell the same story. While his point about religions may be true, information networks are not just about stories. There are proven links between control of information, control of (imagined) truth and power.

The second half of the book is about computers and artificial intelligence, which Harari believes could lead to Armageddon. Most of his concerns seem reasonable, such as generative AIs poisoning online discussions. He becomes a prophet when he discusses how ‘AI overlords’ might create a new pandemic, a new kind of money, and a flood of fake news or incitement to riot on information networks. Fake news and incitement are already true, and we don’t need advanced ‘AI overlords’ for that. And a solution? Regulation and ‘institutions with strong self-correcting mechanisms’. Answering with a truism to fight the ‘end of days’? Such a solution will not prevent a situation in which, as he writes in the prologue, ‘we might find ourselves nowhere at all, as Earth becomes inhospitable for human life’. He could have done better.

Nexus lacks focus. Anecdotes from all over space and time are juxtaposed and accompanied by truisms, such as, at the end of chapter 11: ‘The only constant in history is change’. Which is true, of course, but I did not need Harari to know that.

Perhaps I am a naive information theorist. And maybe that is why I do not recommend this book for reading.

Y.N. Harari (2024). Nexus. A Brief History of Information Networks from the Stone Age, Random House, New York, 528 pp.

Published in a post on LinkedIn, September 2024.

Share This:

AI and digital preservation

Interesting paper (february 2024) about the role of AI for the preservation of archives.

According to the abstract:
‘This paper delves into the historical evolution of preservation methods driven by technological advancements as, throughout history, libraries, archives, and museums have grappled with the challenge of preserving historical collections, while many of the traditional preservation methods are costly and involve a lot of manual (human) effort. AI being the catalyst for transformation could change this reality and perhaps redefine the process of preservation; thus, this paper explores the emerging trend of incorporating AI technology into preservation practices and provides predictions regarding the transformative role of Artificial Intelligence in preservation for the future. With that in mind, this paper addresses the following questions: could AI be what changes or creates a paradigm shift in how preservation is done?; and could it be the thing that will change the way history is safeguarded?’

I don’t really know if it would be a paradigm shift or that it changes the way archives are safeguarded.

That AI might redefine the process of preservation: I don’t doubt that. The process of preservation can be automated and the information needed to do so is available. So, it is quite possible that an Artificial Narrow Intelligence would be of enormous help in processing al those routine tasks now done by people.

But: it would mean indexing all known data about the process (processes) of preservation and meticulously designing an AI driven process, with several human controls.

Citation:
Z. Teel (2024). ‘Artificial Intelligence’s Role in Digitally Preserving Historic Archives’, Preservation, Digital Technology & Culture, Vol 53, NO. 1. Online source. For download here.

Published in a LinkedIn post in september 2024.

Share This:

Biologic Computer ?

Luciano Floridi and Anna Nobre have published an interesting paper on SSRN about ‘conceptual borrowing’, the process by which a new discipline develops its technical vocabulary partly by ‘borrowing’ concepts from neighbouring disciplines, often giving the concept a new meaning.

The authors argue that through this extensive conceptual borrowing, the discipline of AI has ended up ‘anthropomorphizing’ computers, as computational brains with psychological properties. The brain and cognitive sciences themselves have developed a vocabulary that has led to descriptions of the brain and mind as if it were a computer that processes information, as if it were a ‘biological computer’.

This mixing of the jargon of these disciplines can lead to confusion and even harmful assumptions and consequences.

Artificial intelligence and human intelligence are far apart, but using the vocabulary of other, seemingly closely related disciplines can give a different idea. Clarity about concepts is really important, especially when using a concept in a new context.

The same happens with concepts from archival science being used in information and computer science with a completely different meaning. And vice versa! It leads to confusing discussions where people are talking about the same thing but completely misunderstand each other because of different meanings!

Interesting paper! Essential reading if you work with AI specialists!

L. Floridi, and A. Nobre (2024). Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences (Centre for Digital Ethics (CEDE) Research Paper, No, forthcoming. Published on SSRN.

Published as a LinkedIn post here in september 2024.

Share This:

Two book reviews

There are laying two new, just published books on my desk. I have already read the first one and am currently engaged with the second.

Both books are essential reading for anyone engaged in business, science or a professional field.

In his book, Technology is Dead. The Path to a More Human Future, Chris Colbert presents a framework for a more humane and human-centric relationship with technology, which, as we have created, we must now learn to manage. Central thesis of the book: technology has escaped human control with unintended and inevitable consequences.We have the choice to either continue pursuing technological advancement
at the expense of the planet, life, and our own humanity, or to assume responsibility and direct the course of technological development. We have no sufficient reason to unleash technology without consideration of the consequences.

The second book is Tiankai Feng‘s Humanizing Data Strategy. Leading Data with the Head and the Heart. It is important to recognize that people are emotional, irrational and impulsive, yet they also play a crucialrole in any data strategy. Nevertheless, integrating the human element into data strategy is a challenge. Tiankai presents a framework for understanding the human aspects of data strategy, linking human needs with business objectives through the concepts of competence, collaboration, communication, creativity, and conscience. By acknowledging the inherent biases and emotional influences in data analysis, it becomes evident that empathy, intuition and compassion are essential in the realm of data-driven decision-making. He presents a methodology for making data strategies more inclusive and impactful, combining personal anecdotes with professional knowledge. Fostering a collaborative and ethical data culture requires humanizing data practices, which is an essential step in developing effective and humanized data strategies.

The two books share a common theme of humanizing developments.

If this is a new trend, it is a welcome development.

Published in a post on LinkedIn in september 2024.

Share This:

Information governance and Small Language Models

The advent of large, comprehensive AI models (such as OpenAI’s GPT-4) has had a profound impact on society, both beneficial and detrimental. The positive impact of AI includes stimulating innovation, generating audio, video, and text, and much more. However, the negative impact of AI includes environmental damage, data scraping that is mostly illegal, its immense costs, and it being the source of large amounts of misinformation, deep fakes, and so on.

There appears to be a tendency towards the adoption of smaller, more agile models that are specifically designed to efficiently perform a limited range of tasks. Such models are designed to perform these tasks at reduced cost in comparison to larger models. Such models offer advantages in terms of speed and can be deployed on local devices, thereby eliminating the need for constant cloud connectivity. This presents a substantial advantage for applications that require cost-effective, real-time processing and privacy.

Examples: Microsoft’s Phi models that, despite being 1/100th the size of GPT-4, can perform many tasks nearly as well. Or Apple’s initiative to run AI software entirely on phones using small models.

The reduction in data foorprint may prove to be a potential public relations asset.

The governance of information will be of significant importance in the utilization of these smaller models.

1. The functionality of small-scale AI models is contingent upon the quality of the data on which they rely. Consequently, these models require access to clean, accurate, and well-curated datasets to operate effectively. Information governance is a crucial aspect of this endeavour.

2. It is essential to guarantee that AI models adhere to regulatory standards and data privacy standards. Information governance frameworks assist organizations in navigating intricate regulatory terrains and implementing vital safeguards.

3. It is imperative that users and stakeholders have confidence in the impartiality, transparency, and fairness of AI models. The implementation of information governance practices, such as data lineage tracking and bias audits, facilitates the ethical design and use of those models.

What further arguments could be put forth to demonstrate the importance of information governance specialists within organizations?

Published in a post on LinkedIn in september 2024.

This post was a response on ‘Why Information Governance is Critical to the Success of Smaller, Nimbler AI Models’, published here.

Share This:

De arbeidsproductiviteit in Nederland

De arbeidsproductiviteit in Nederland is weer lager. Los van het feit dat dat al lange tijd gaande is en het volstrekt onduidelijk is hoe dat cijfer uiteindelijk wordt bepaald (zelfs de gasprijs speelt een rol blijkbaar), gaat het feit dat er blijkbaar minder mensen inzetbaar zijn een rol spelen. Innovatieve technologie is dan een van de oplossingen, blijkbaar.

Innovatieve technologie is al jaren ingezet, zonder veel succes vaak. Dat lag niet aan die technologie, veelal aan de wijze waarop die technologie is geïmplementeerd en waarop er binnen organisaties mee wordt omgegaan. Zeker als het gaat om informatietechnologie gaan organisaties in implementatieprocessen tot het uiterste om die technologie volledig te doen lijken op de organisatie zoals die is. Technologie dient dan alleen maar om bestaande structuren te versterken, leidend tot een toename van bureaucratisering en verkokering. Niemand wordt er gelukkig van, maar we gaan er toch gewoon mee door. In veel gevallen wordt het ‘systeem’ achteraf ingevuld op basis van wat bij de koffieautomaat is afgesproken. Lach niet, want dat is in veel situaties nog steeds het geval.

Als je de arbeidsproductiviteit van je mensen wilt verhogen, denk dan aan:

Gebruik technologie zoals die gebruikt moet worden en gebruik AI daar waar daadwerkelijk verbeteringen kunnen worden aangebracht. Vergeet Generatieve AI, want die speelt hier geen rol van betekenis. Kijk naar kleinere, ‘slimme’ AI-toepassingen die bottlenecks in je werkorganisatie kunnen oplossen, waardoor mensen worden vrijgemaakt om ‘gewoon’ hun werk te doen.

Durf na te denken over je eigen organisatie, je eigen werkwijzen en je eigen ‘overhead’ in processen.

Durf je organisatie te veranderen zodat die gebruik kan maken van de mogelijkheden die de technologie biedt.

Durf je organisatiecultuur aan te pakken en maak het gedrag van jezelf en je mensen bespreekbaar. De meeste problemen met de toepassing van technologie zitten juist in die cultuur en in dat gedrag!

Durf te investeren in mensen. Vul vacatures op met mensen die wat ouder zijn, die een afstand hebben tot de arbeidsmarkt of die ondanks hun opleiding alles willen aannemen om nuttig te zijn. Ook onder hun ‘niveau!’ Als je een vacature hebt, en je stuurt mensen weg omdat ze te ‘oud’ zijn, geen ‘ervaring’ hebben in de sector, ‘overgekwalificeerd’ zijn of meer van dergelijke drogredenen, dan heb je geen tekort aan mensen.

En tot slot: houd op met de dooddoener dat het ‘wat langer duurt’ voordat je als klant geholpen wordt omdat het ‘te druk’ is!

Dat is die oude ‘cultuur’ en dat ‘oude’ gedrag waar je zo snel mogelijk vanaf moet!

Gepubliceerd in een post op LinkedIn, augustus 2024.

Deze post was een reactie op een nieuwsbericht op EW.

Share This:

Organizational structure and software design

Melvin Conway’s Law, first posited in 1968, states that the architectural structure of a software system mirrors the organizational structure of the entity responsible for its development.

In the event that an organization comprises multiple teams engaged in a single project, the resulting software system will likely exhibit a structure that reflects the communication patterns between those teams. Even the largest software development companies, such as Microsoft and Google, are susceptible to the influence of this ‘law’.

Although typically discussed in the context of software, the observation is applicable more broadly to systems in general. Conway posits that social problems such as poverty, healthcare, and education reflect (or mirror) the structures of government organizations.

Let’s take this one step further.

The architectural structure of the software may reflect the structural configuration of the organization that designed it. Ultimately, however, the implementation of the software reflects the structural configuration of the organization that uses it, even if the structural configurations of the developer and the user are disparate (or even contradictory).

Could this be a potential explanation for organizational difficulties encountered when implementing information and records management software?

In addition to the more obvious explanations regarding organizational and employee behaviour, of course.

I was inspired by Nohan Nayak’s insightful post below, in which he also raises the question of whether AI agents are influenced by Conway’s law. This is a very interesting question, as it would have significant implications if they are.

Further reading:
Conway, M. E. (1968). ‘How do committees invent’, Datamation, Vol. 14, No. 4, 28-31.
Bindrees, M. A., Pooley, R. J., Ibrahim, I. S., & Bental, D. S. (2014). ‘How public organisational structures influence software development processes’, Journal of Computer Science, Vol. 10, No. 12, 2593.
Bailey, S. E., Godbole, S. S., Knutson, C. D., & Krein, J. L. (2013). ‘A decade of Conway’s Law: A literature review from 2003-2012’, 2013 3rd international workshop on replication in empirical software engineering research, IEEE, pp. 1-14.

Response to the following LinkedIn post:

Nohan Nayak, How Organizational Structure Impacts Software Design
This relationship, known as Conway’s law, states that “organizations which design systems … are constrained to produce designs which are copies of the communication structures of these organizations”.
There are several key ways in which organizational structure affects software design:

Communication and Coordination
Software components that need to communicate frequently tend to be developed by teams that interact closely. Conversely, loosely coupled teams will produce more modular software designs.

Specialization and Expertise
The division of labor and specialization of teams in an organization influences the modularity and layering of software systems. Teams focused on specific domains or technologies will produce components that are optimized for those areas but may not integrate as smoothly.

Decision-Making and Autonomy
The decision-making structure of an organization, whether centralized or distributed, impacts the flexibility and extensibility of software. Centralized decision-making, such as in a chief programmer team, can produce more consistent designs but may limit innovation. Decentralized structures like egoless or democratic teams allow more experimentation but may lack coherence.

Organizational Inertia and Legacy
Over time, an organization’s software tends to mirror the communication patterns and team structures that existed when it was originally built[1]. As an organization evolves, its software can become increasingly misaligned, requiring major refactoring efforts to untangle.

To mitigate the impact of organizational structure on software design, experts recommend:

– Aligning teams and components based on domain boundaries rather than technologies
– Fostering cross-team communication and coordination through shared goals, tools, and processes
– Empowering software architects to shape both the technical and organizational structures
– Regularly reviewing and iterating the organization’s structure to keep it in sync with evolving software needs

How does organisational structure impact software design? And will AI Agents behave the same way?

This intriguing illustration sheds light on the dramatised organisational structures of Amazon, Google, Facebook, Microsoft, Apple, and Oracle, perfectly echoing 𝗖𝗼𝗻𝘄𝗮𝘆’𝘀 𝗟𝗮𝘄: “𝗦𝗼𝗳𝘁𝘄𝗮𝗿𝗲 𝗮𝗻𝗱 𝗽𝗿𝗼𝗱𝘂𝗰𝘁 𝗮𝗿𝗰𝗵𝗶𝘁𝗲𝗰𝘁𝘂𝗿𝗲 𝗶𝘀 𝗱𝗲𝘀𝘁𝗶𝗻𝗲𝗱 𝘁𝗼 𝗯𝗲 𝗮 𝗿𝗲𝗳𝗹𝗲𝗰𝘁𝗶𝗼𝗻 𝗼𝗳 𝘁𝗵𝗲 𝗼𝗿𝗴𝗮𝗻𝗶𝘀𝗮𝘁𝗶𝗼𝗻𝗮𝗹 𝘀𝘁𝗿𝘂𝗰𝘁𝘂𝗿𝗲 𝘁𝗵𝗮𝘁 𝗰𝗿𝗲𝗮𝘁𝗲𝗱 𝗶𝘁.”

This concept could become a critical hyperparameter in AI agent design, shaping their interactions and problem-solving approaches. Conway’s Law appears to be an emergent property of complex systems, but regardless, the fact that LLMs are trained on human decision-making makes it increasingly likely that Agents will emulate these same dynamics.

For the LinkedIn posting see here.

Publshed August 2024.

Share This:

Vertalingen: ‘Ecological footprint’ en ‘Archiving in 2050’

Op verzoek van enkele van mijn internationale relaties heb ik mijn onlangs gepubliceerde artikelen: ‘De ecologische voetafdruk van Artificial Intelligence’ en ‘Archivering in 2050’ vertaald naar het Engels. Ik neem beide vertalingen hieronder op. Ze zijn vrij om te downloaden en te verspreiden.

In response to requests from several of my international colleagues, I have translated two recently published articles, ‘De ecologische voetafdruk van Artificial Intelligence’ and ‘Archivering in 2050’, into English. Both translations are presented below and are available for download and distribution at no cost.

Follow ‘Continue Reading’ to view and download.

Continue reading

Share This:

De ecologische voetafdruk van Artificial Intelligence

Artificial Intelligence (AI) biedt kansen. Het biedt mogelijkheden voor vooruitgang in gezondheidszorg, communicatie, bestuur en productie. Het biedt mogelijkheden voor het creëren van tekst, beeld, geluid en kunst. Het helpt om de effecten van de klimaatcrisis op te vangen door intelligente energienetten te ontwikkelen, door infrastructuren te ontwikkelen die geen of nauwelijks CO2 emissie hebben en door klimaatvoorspellingen te modelleren.

Niet alles is positief. AI speelt een groeiende rol in de verspreiding van ‘fake news’, ‘deep fakes’ en andere vormen van misinformatie waardoor onze democratische samenleving wordt bedreigd door populisme en polarisatie.

Een onduidelijker effect van AI is het ecologisch effect dat het heeft. Daar is de afgelopen paar jaar veel over gepubliceerd, maar het duurt lang voordat berichten daarover in het maatschappelijke bewustzijn indalen.

Continue reading

Share This:

Archivering in 2050

Al bijna een jaar geleden publiceerde ik een artikel over de toekomst van archivering, Archivering in 2050, in het Archievenblad. Ik leidde dat artikel als volgt in:

“In 2012 gaf ik in ‘Archiving should be just like an Apple’ een samenvatting van hoe archivering zich zou kunnen gaan ontwikkelen, namelijk het creëren van een omgeving waarin archivering volledig geautomatiseerd plaatsvindt. Het idee was dat gebruikers geen of nauwelijks handelingen hoeven te verrichten om informatie contextueel te verwerken en op te slaan en dat archivering een achtergrondproces wordt. Medewerkers in organisaties doen hun werk, zonder zich af te vragen hoe informatie wordt opgeslagen en gearchiveerd. Ze kunnen erop vertrouwen dat informatie beschikbaar is op het benodigde moment (ongeacht wanneer dat is), voorzien van metadata om context, relevantie en kwaliteit ervan te kunnen beoordelen. Datzelfde geldt ook voor de informatie die als cultuurhistorisch erfgoed bewaard wordt in archief- bewaarplaatsen. Gebruikers van dat erfgoed moeten daarvan op diezelfde intuïtieve manier gebruik kunnen maken en die archiefinformatie kunnen vinden en gebruiken, voorzien van alle context die nodig is om die informatie te kunnen interpreteren. Dat proces kan met allerlei tools en technieken worden ondersteund, zoals ‘artificial intelligence’ (AI) en ‘machine learning’ (ML). Informatie, ongeacht waar deze bewaard wordt, moet als het ware met een druk op de knop beschikbaar zijn, vergezeld van ontstaans-, gebruiks- en beheer(s)context.”

Ik vervolgde dat even verderop met:

“De toekomst is altijd ongewis, maar op basis van de huidige stand van de informatietechnologie durf ik, voortbouwend op mijn schets van 2012, wel een blik te werpen op 2050. Dat is ver genoeg weg om zelf niet meer geconfronteerd te worden met het feit dat wat ik verwacht, niet blijkt te kloppen (en die kans is uiteraard groot).”

Ben benieuwd wat de reacties hierop zijn!

Een reactie van Hans van Bommel op Linked in: ArQiver in lijn met de visie 2050 van Geert-Jan van Bussel. Zie alhier.

Citatie: G.J. van Bussel, ‘Archivering in 2050. Een blik op de toekomst’, Archievenblad, jgn. 127, no. 3, 2023, pp. 6-9.

Share This:

Bevlogen Bespiegelingen

De afgelopen dagen heb ik besteed aan het opnemen van een aantal columns/essays van mijn blog Bevlogen Bespiegelingen in deze website. De blog is over enkele weken niet meer beschikbaar.

Tijdens het verplaatsen en het doorlopen van de tekst bleek dat deze columns nog steeds een grote mate van actualiteit hebben, al hebben ze uiteraard wel wat last van de tijd die voorbij gegaan is. Ik heb tot 2018 regelmatig stukken tekst geplaatst, maar de ‘oudste’ stukken dateren van 2010 tot 2013.

Bij het doorlezen van deze teksten en het nalopen van alle aangebracht links naar gebruikte bronnen, kwam ik tot de conclusie dat vele links niet meer beschikbaar waren. Ik heb niet de moeite genomen na te zien in hoeverre ze eventueel in een of ander web-archief nog beschikbaar zijn. Dat zou wel heel veel tijd vergen. Daar waar de bron is verdwenen heb ik ook de link verwijderd. Waar deze eventueel te reconstrueren was (eventueel met gebruikmaking van andere bronnen) heb ik dat gedaan.

Vele blogs zijn gebaseerd op boeken die ik ten tijde van het bericht las of gelezen had en op basis waarvan ik soms ‘enigszins’ op hol sloeg.

Op deze wijze blijven de blogs in ieder geval bewaard op de plek waar de meeste van mijn publicaties terug te vinden zijn. Dat is iets wat ik zelf erg prettig vind.

En uiteraard:

De blog is ook terug te vinden op de website van het internet archive, hier namelijk.

Share This:

Gleich’s ongelijk

In maart 2011 alweer verscheen James Gleick’s boek ‘The information. A history, a theory, a flood‘, uitgegeven bij Pantheon Books in New York. Nog datzelfde jaar verscheen er een Nederlandse vertaling van Ronald Jonkers bij De Bezige Bij in Amsterdam. Voor mijn verhaal baseer ik mij op de oorspronkelijke uitgave, omdat ik van mening ben dat geen enkele vertaling de oorspronkelijke zeggingskracht en sfeer kan weergeven.

Information

Ik heb zelden een boek in handen gehad dat mij tegelijkertijd zoveel gevoel van bewondering als van irritatie heeft gegeven als dit boek. Dat is ook de reden dat ik er nu pas iets over zeg. Ik heb het boek verschillende keren aan de kant gegooid, maar ik kon het toch niet laten er later weer naar te grijpen. Het boek grijpt je, en dat is een groot compliment voor de schrijver. Gleick’s boek gaat over (bijna) alles: over woorden, sprekende ‘drums’, het schrift, lexicografie en vroege pogingen voor een analytische machine, over telegraaf, telefoon, ENIAC en de computers die daarop volgden, over theorieën van Babbage, Shannon, Wiener, Turing, Gödel en anderen, die zich concentreerden op het coderen, decoderen en recoderen van de boodschappen die via de media in hun tijd werden verspreid, over de genetica als een biologisch mechanisme voor informatieuitwisseling en zelf-replicerende ideeën als zichzelf ontwikkelende levensvormen van ‘The Information’, over muziek en quantummechanica, over de betekenis van ‘interesting numbers’ en waarom ‘the bit the ultimate unsplittable particle’ is. Het gaat over veel te veel en als gevolg daarvan verliest het boek, dat (maar dat is Gleick wel toevertrouwd) meesterlijk geschreven is, veel van zijn overtuigingskracht. Het is, in mijn optiek, ‘overdone’ en zelfs de eruditie die er uit spreekt wekt halverwege het boek al irritatie op. Het lijkt een ‘omgevallen boekenkast’, die de ‘rode draad’ van het boek (die er wel degelijk is) grotendeels teniet doet. De grote hoeveelheid lovende recensies van het boek ten spijt (ik vraag me in alle gemoede af of het boek door die recensenten wel serieus gelezen is !): als een student een scriptie met zo weinig focus en zoveel niet ter zake doende uitwijdingen had ingeleverd, was deze gegarandeerd retour gegaan.

Continue reading

Share This:

Het einde van de ideologie: politieke hypocrisie, leugens en opportunisme

De verkiezingstijd met zijn retorische opportunisme en leugenachtige hypocrisie is weer losgebarsten. In de laatste decennia voor 2000 was het al te merken dat de drie ideologieën (socialisme, liberalisme en christendemocratie) te maken kregen met krimpende macht, afkalvende kiezersgroepen en herinneringen aan betere tijden in het verleden. Alsof er echter niets veranderd is, wordt er nog steeds volgens die drie ideologieën gedacht, zeker in verkiezingstijd. Het ideologische conservatisme viert hoogtij, terwijl de werkelijkheid totaal anders is. Pragmatisme, opportunisme en politiek cynisme lijken ervoor in de plaats gekomen te zijn. Politieke zingevingsvragen raken ver verwijderd van de politieke praktijk. Het gaat er niet meer om of een verkiezingsprogramma een uiting is van die zingeving, maar of het de toets van de economische benadering van het CBS doorstaat !

Pragmatisme is de politieke deugd van vandaag de dag. Als wijdverbreide uitwas daarvan echter is opportunisme gemeengoed geworden. Lid worden van een politieke partij gebeurt niet meer uit principiële overwegingen, maar vanuit carrièreperspectieven. In 1996 al verklaarden jonge ambtenaren dat zij lid werden van de politieke partij die het meeste perspectief bood voor hun carrière. Parlementsleden zien hun functie als een stap in hun uiteindelijke carrière en niet meer als het sluitstuk daarvan. Dat geldt eveneens voor ministers en staatssecretarissen; het ‘maatschappelijke middenveld’ (waarover ik het in al eerder heb gehad) ontvangt deze bestuurders en parlementariërs met open armen en beloont ze gul voor hun ‘contacten’, die lobbyen mogelijk maken. Politieke partijen lijken carrièrevehikels en verliezen hun rol als tussenschakel tussen politiek en burger, wat gepaard gaat aan een desastreus verlies in politiek vertrouwen, een toename van de onvrede en de opkomst van populistische stromingen op ‘links’ en ‘rechts’.

Het dalende vertrouwen in de politiek, het daaruit voortvloeiende politieke cynisme en het opkomende populisme kunnen in verband gebracht worden met het ‘Ehernes Gesetz der Oligarchie’, geformuleerd door de Duitse theoreticus Robert Michels in Zur Soziologie des Parteiwesens uit 1911. Deze ‘wet’ stelt dat iedere democratie uiteindelijk tot een oligarchie verwordt, waarbij de macht in handen is van een van een politieke basis vervreemde en gesloten politieke klasse, die zich (behalve met veel woorden) nauwelijks iets aantrekt van wat onder de gewone burgers leeft. Het woord ‘populisme’ wordt door deze klasse voor elke beweging of persoon gebruikt die zich daar wel iets van aantrekt. Geert Mak heeft dat in de NRC tijdens het Fortuyn-debacle als volgt geformuleerd: ‘Het systeem van de Nederlandse ‘nomenclatura’ verschilt in wezen niet van dat van de voormalige Sovjet-Unie. Ook hier gaat het om een half politieke, half bestuurlijke ‘inner circle’ met nimmer uitgesproken maar niet minder belangrijke privileges. En een van de belangrijkste is het eeuwige recht op een belangrijke positie, ook al heeft de betrokkene geenszins blijk gegeven van bepaalde speciale vaardigheden of in het verleden zelfs een spoor van wanbeleid achter zich gelaten. Ook de leden van onze nomenclatura zijn niet zozeer bezig met zich in te zetten voor hun dierbare principes, maar met het veilig stellen van hun posities’. Politiek cynisme ? Politieke realiteit ? Of een beschrijving van een daadwerkelijke praktijk, die door iedereen kan worden herkend ?
Ik kreeg dit jaar twee boeken in handen die het verschijnsel van politieke hypocrisie en politieke leugens aan de orde stellen. Deze boeken van respectievelijk David Runciman en Martin Jay vormen een uitdagend en interessant uitstapje in de intellectuele geschiedenis van de politieke theorie. Want zowel hypocrisie als leugenachtigheid in politieke setting zijn besproken door Hobbes, Mandeville, Orwell, Ahrendt, Kant, Constant en vele anderen.

Continue reading

Share This: