21 juli 2006
Tijdens de conferentie van de American Association for Artificial Intelligence in Boston heeft Tim Berners-Lee, (volgens ook zijn eigen zeggen) de 'Vader van het Web' en nu de hoogste man van het World Wide Web Consortium (W3C) een uitgebreide lezing gegeven over het semantisch web en kunstmatige intelligentie. Daarin verkondigde hij dat de volgende stap in de ontwikkeling van het Web eruit zal bestaan dat webinformatie dusdanig zal worden gestructureerd dat software met behulp van kunstmatige intelligentie een en ander zelf kan begrijpen en analyseren. Het semantische web zou het mogelijk moeten maken dat informatie automatisch en zelfstandig door applicaties kan worden gebruikt en hergebruikt bij de ontwikkeling van nieuwe content. Om dat alles te bereiken wil Berners-Lee dat webontwikkelaars meer gebruik gaan maken van RDF (Resource Description Framework), betere URI's (Uniform Resource Identifiers) en andere manieren om informatie te structureren. Alleen op die manier kan het semantisch web ' maintain the collaborative nature the world wide web was originally intended to have'.
Peter Norvig, directeur Search bij Google, stelde tijdens de discussie dat het idee voor een semantisch internet zeer interessant is, maar niet gaat werken omdat internetgebruikers daarvoor te 'dom' zijn. De ideeën van Berners-Lee betekenen dat webmasters massaal semantische programmeercodes moeten gaan gebruiken naast de standaard HTML-code. Norvig zei: 'We deal with millions of web masters who can't configure a server, can't write HTML. It's hard for them to go to the next step. The second problem is competition. Some commercial providers say, 'I'm the leader. Why should I standardise?'. The third problem is one of deception. We deal every day with people who try to rank higher in the results and then try to sell someone Viagra when that's not what they are looking for. With less human oversight with the semantic web, we are worried about it being easier to be deceptive'. In Norvigs optiek is de webgebruiker niet competent genoeg om het semantisch web te realiseren. Berners-Lee was het eens met Norvig dat 'deception' een probleem was, maar stelde dat het semantisch web gericht was op het identificeren van de oorsprong van de informatie en het bepalen van de betrouwbaarheid van de informatie, en niet alleen op de content van de informatie zelf. Hij vertelde de Google-vertegenwoordiger: 'Google is in a situation to do wonderful things, as it did with the web in general, and add a whole other facet to the graphs – the rules that are testing which data source. It will be a much richer environment'. Niet iedereen overigens is het eens met Berners-Lee opvatting dat het semantisch web kunstmatige intelligentie vereist. 'A Semantic Web is not Artificial Intelligence. The concept of machine-understandable documents does not imply some magical artificial intelligence which allows machines to comprehend human mumblings. It only indicates a machine's ability to solve a well-defined problem by performing well-defined operations on existing well-defined data. Instead of asking machines to understand people's language, it involves asking people to make the extra effort to create information comprehensible to a computer'. En juist dit laatste wordt door Google en anderen betwijfeld: het vergt extra inspanningen en competenties van de webmasters om dit te realiseren. Het vereist vele extra tools om deze taak te vereenvoudigen. Zolang die tools niet dermate gebruiksvriendelijk zijn om de semantische programmering vanzelfsprekend te maken, kan het best nog even duren voordat de vereiste standaardisering is bereikt.