Category Archives: Opslag (Storage)

120 Petabyte aan opslag

IBM bouwt voor een onbekende klant een opslagunit waarop 120PB aan data past. Daarmee is het veel groter dan het grootste (bekende) opslagsysteem tot nu toe. De opslag wordt gemaakt met 200.000 harde schijven van ieder gemiddeld 600GB. Door alle harde schijven aan elkaar te koppelen wordt een opslagunit gemaakt met 120 petabyte aan geheugen. De klant wil met de enorme hoeveelheid opslag gedetailleerde simulaties maken van situaties in de werkelijkheid.

De schijven zullen worden geplaatst in horizontale lades in hoge rekken, maar koeling moet worden gedaan door water, omdat er niet genoeg ruimte is voor meer traditionele koelmethoden. De opslag is voldoende om zestig keer de hele database van internetarchief Wayback Machine te bevatten. 

Continue reading

Share This:

The digital dark age

Een intrigerende en interessante film over een toekomst waarin mensen de gegevens, literatuur, kunst, foto’s en archieven van voorgaande generaties niet meer kunnen benaderen. Dat zwartgallige beeld van een toekomst kan aan onze horizon te ontwaren zijn. Zie hoe fragiele, snel verouderende systemen voor de opslag van data tot een Dark Age kunnen leiden. Een fantastische intro in digitale duurzaamheid !

 

Share This:

Ensuring the longevity of digital documents

In april 2008 hield David S. Rosenthal van Stanford University een keynote op het congres van de Coalition for Networked Information. Het is een lange zit (bijna anderhalf uur), maar wat Rosenthal te melden heeft is van groot belang voor alle geïnteresseerden in Digital Archiving.

 

Share This:

Datacentra in kantoren ?

APC, onderdeel van Schneider Electric, wil graag leegstaande kantoorpanden ombouwen tot duurzame datacentra. Het biedt financieel en milieutechnisch kansen, en aan datacentra worden minder eisen gesteld op het gebied van bereikbaarheid en parkeergelegenheid.

Dit stelt Wim Hendriksen, country manager Benelux bij APC. Hij ziet dat de vraag naar servercapaciteit de komende jaren fors toeneemt. Hendriksen: ‘Door de populariteit van social media, cloud computing en smartphone-applicaties stijgt de hoeveelheid dataverkeer enorm. We verwachten dat in 2050 veertig procent van de mondiale energieconsumptie komt van datacentra’. Hij geeft aan dat twintig procent van de Nederlandse IT-bedrijven hun datacentercapaciteit willen uitbreiden en ze dat bij voorkeur in Nederland doen.

Continue reading

Share This:

Extreem weer leidt tot gegevensverlies

De vraag naar hulp bij dataverlies neemt tijdens de zomer toe. Door extreme weersomstandigheden zoals onweer hapert de elektriciteit of valt de stroom uit. Bedrijven kloppen dan vaker aan voor hulp bij verlies van digitale gegevens. Dat concludeert dienstverlener Kroll Ontrack. Het bedrijf ziet de vraag naar hulp bij dataverlies in de zomermaanden toenemen.

‘We hebben nu al een stijging vastgesteld in het aantal opdrachten. Hoewel dit natuurlijk ook te maken kan hebben met de economie die zich herstelt, lijkt het grotendeels aan de zomer te liggen’, aldus Jaap Jan Visser, directeur van Kroll Ontrack Nederland.

De leverancier baseert aan de hand van gegevens van het jaar 2007 tot 2009 dat de vraag naar diensten voor dataherstel gemiddeld met 12 procent stijgen tijdens de maanden juni, juli en augustus  ‘Dat bevestigt dat het seizoen een invloed heeft op gegevensverlies’, aldus de leverancier.

Visser waarschuwt dat extreme hitte kan leiden tot het vroegtijdig crashen van harde schijven, terwijl een lage vochtigheidsgraad gecombineerd met stof in droge omstandigheden problemen met de statische elektriciteit en verschillende componenten kan bevorderen.

Continue reading

Share This:

De IT Infrastructuur van CERN

Met de Large Hadron Collider (LHC) in Genève wordt geprobeerd te achterhalen hoe het heelal is ontstaan. Dat gebeurt door deeltjes met een snelheid van 99,999 procent van het licht tegen elkaar aan te laten botsen. Bij die botsingen wordt al het mogelijke (snelheid, richting, lading massa) gemeten.

Die metingen worden gedaan in een van de vier punten in de enorme deeltjesversneller LHC: ATLAS, LHCb, CMS en ALICE. Op elk van deze punten in de 27 kilometer lange LHC-ring staat een datacollector met miljoenen sensoren. Als er botsingen plaatsvinden in de versneller wordt 1 petabyte (1 miljoen gigabyte) aan data per seconde gegenereerd.

Het verwerken van al die data door CERN IT Communications Systems Group is ondoenlijk en onnodig. Wel wordt alle data eerst naar het centrale punt in het Computing Center gestuurd via het eigen glasvezelnetwerk. CERN is in het gebied zelfs eigenaar van de wegen en het land zodat ze altijd kunnen graven, mocht dat bij een netwerkuitbreiding nodig zijn.

De verbindingen verschillen in snelheid. Zo stuurt de datacollector van ATLAS gegevens met ongeveer 320 MB/s door, CMS doet dat met 220 MB/s, ALICE met 100 MB/s en LHCb houdt het bij 50 MB/s. De data worden in het Computing Center gefilterd. Een groot gedeelte van de data is niet nodig voor het onderzoek van CERN.

Continue reading

Share This:

Rekenmodellen voor cloudopslag kloppen niet

Leveranciers van opslag in de cloud hebben ondeugdelijke afrekenmodellen, waarbij de relatie met feitelijke kosten zoek is. Sommige klanten betalen daardoor te veel, andere te weinig.

Dat stelt Matthew Wachs, van Carnegie Mellon University, op de Usenix-conferentie in Portland, Oregon. Hij ziet vooral problemen in de manier waarop de rekening wordt opgemaakt voor toegang tot de gegevens. Veelal kiezen de leveranciers voor het aantal getransporteerde megabytes, het aantal input/outputoperaties per seconde of een variatie daarop. Die zijn voor de leverancier makkelijk te meten, en zijn makkelijk inzichtelijk te maken voor de klant. Maar juist deze transacties zeggen weinig over de feitelijke belasting van de disksystemen die de cloudleverancier heeft draaien, zo betoogt Wachs.

Ter illustratie wijst Wachs op het verschil tussen sequentiële en willekeurige schijftoegang. Bij het lezen van een grote hoeveelheid gegevens die aaneengesloten op schijf staan, hoeft het schijfsysteem veel minder werk te verzetten dan bij het uitlezen van gegevens die op verschillende plaatsen op de schijf staan. Per megabyte per seconde transfer vanaf disk kan de belasting bij sequentiële bestanden 1,6 procent zijn, en bij ‘random access’ wel 67 procent.

Continue reading

Share This:

Vraag naar storagesoftware en diskopslag stijgt weer

9 maart 2011

In het vierde kwartaal van 2010 nam wereldwijd de vraag naar dataopslagsoftware toe. De omzet in dat kwartaal bedroeg 3,4 miljard dollar, dat is 10,6 procent meer dan in het vierde kwartaal van 2009. Sterkste groeier was Hitachi Data Systems, gevolgd door EMC. De markt voor storagesoftware zit meer dan een jaar in de lift, aldus onderzoeksbureau IDC. Leverancier EMC is in het vierde kwartaal van 2010 marktleider, het bedrijf zag zijn omzet met 18 procent groeien naar 866 miljoen dollar. Symantec staat op de tweede plaats en wist slechts 0,1 procent te groeien naar 543 miljoen dollar. IBM is derde speler met een omzet van 443 miljoen dollar. Op nummer vier staat NetApp met een omzet van 312 miljoen dollar. Hitachi Data Systems (HDS) wist een groei te behalen van 47 procent en staat nu op de vijfde plaats met een omzet van op 148 miljoen dollar. In 2010 steeg de verkoop van storagesoftware met 10,3 procent naar 12,7 miljard dollar. Dat is meer dan in 2009 toen er sprake was van een groei van 3,2 procent. In 2010 nam de vraag naar beheersoftware voor dataopslaginfrastructuren met 23,6 procent toe. De vraag naar dataprotectie- en recovery-software nam toe met 11,2 procent naar 4,4 miljard dollar.

Continue reading

Share This:

Data niet altijd wisbaar

2 maart 2011

Data in SSD’s (Solid State Drive) kunnen niet allemaal gewist worden. Data die achterblijven op een SSD moeten daarom altijd beschermd worden door middel van encryptie. Daardoor wordt de resterende datainformatie op de SSD’s ontoegankelijk gemaakt. Dit blijkt uit een onderzoek van het Non-Volatile Systems Laboratory van de University of California in San Diego. Dit stellen onderzoekers Michael Wei en Steven Swanson in hun rapport ‘Reliably Erasing Data From Flash-based Solid State Drives‘. Volgens de onderzoekers is verwijderen van data van SSD’s moeilijker dan bij harde schijven. Dat wordt veroorzaakt door de interne architectuur van SSD’s die anders is dan die van harde schijven. Dat leidt ertoe dat standaard verwijdering, door middel van bijvoorbeeld magnetiseren, moeilijk is. De onderzoekers baseren zich op het testen van veertien verschillende verwijderingsmethoden. Daaruit bleek dat per test ongeveer 10 MB per 100 MB leesbare data op de SSD achterblijft. Een deel van de data bleef steeds maar opvraagbaar en leesbaar, ook na het overschrijven van de gegevens en het uitvoeren van veilige verwijderingcommando’s. De onderzoekers hebben dit kunnen meten door het toepassen van de flash translation layer (ftl)-technologie. Met ftl kregen de onderzoekers binnen een SSD rechtstreeks toegang tot de nand flash chips waarop data staat opgeslagen.

Continue reading

Share This:

Centrale vingerafdrukkendatabase niet meer gewenst

3 februari 2011

Een meerderheid van de Tweede Kamer keert zich tegen de centrale opslag van vingerafdrukken. Het kabinet wil­ ­biometrische gegevens van alle Nederlanders verzamelen in een database, maar de VVD, de PvdA en de ChristenUnie hebben hun standpunt van ‘voor’ veranderd in ‘tegen’. De partijen vinden dat aan een database voor vingerafdrukken te veel risico’s kleven voor de privacy van burgers. De SP, D66, GroenLinks en de Partij voor de Dieren waren al tegen. In januari 2009 stemde de Kamer nog in met de nieuwe Paspoortwet. Wie een nieuw paspoort nodig heeft, moet sinds 2009 vingerafdrukken achterlaten. Nu gebeurt het vastleggen van afdrukken op het gemeentehuis, maar het kabinet wil in plaats daarvan een centraal register voor ­biometrische gegevens aanleggen. Hiermee wil het kabinet onder meer vervalsing voorkomen.

Continue reading

Share This:

Cloud en Overheid: een paar apart

18 januari 2011

Zowel het Europees Agentschap voor netwerk- en informatiebeveiliging (ENISA) als de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) waarschuwen overheden goed na te denken over het opslaan van data in de cloud. De ENISA geeft in een uitgebreid rapport richtlijnen voor Europese overheden en beschrijft een aantal aspecten die iedere overheid moet aanpakken. De lidstaten moeten nadenken of het mogelijk is wetten aan te passen om data op te slaan buiten de landsgrenzen zonder dat veiligheid of privacy van de gegevens van burgers, de nationale veiligheid en de economie onacceptabele risico's lopen. Daarnaast moet de vraag worden gesteld of het wenselijk is deze data in het buitenland op te slaan en of het risico op het verliezen van de controle over deze data opweegt tegen de voordelen van het verspreiden van de data over verschillende plekken. 'Effectively managing the security and resilience issues related to cloud computing capabilities is prompting many public bodies to innovate, and some cases to rethink, their processes for assessing risk and making informed decisions related to this new service delivering model', zo luidt het bijgaande persbericht.

Continue reading

Share This:

Opslagdoorbraak: darmbacterie als opslagrevolutie

13 januari 2011

E.coli , een darmbacterie in uitwerpselen, blijkt een goed digitaal opslagmedium. Een gram bacteriën kan 900 terabyte aan, zeggen onderzoekers. Bio-opslag, zo heet de praktijk van digitale gegevens opslaan in levende wezens. Het idee bestaat al ongeveer tien jaar, maar de efficiëntie van de opslag is pas de afgelopen jaren verbeterd. De verbetering in bio-opslag die een groep studenten in Hongkong met de e.coli-bacterie heeft verwezenlijkt, is spectaculair. Ze hebben immers niet alleen tekst, maar ook beelden en video opgeslagen in levende cellen. Het team heeft een methode verzonnen om gegevens te comprimeren en ze over verschillende cellen te verspreiden. Ze maken ook een index van de cellen om ze later makkelijker terug te vinden. De manier om gegevens op te slaan is vrij omslachtig. Eerst moet je het DNA van de bacteriële cellen verwijderen om het aan te passen met enzymen. Daarna wordt het DNA weer aangebracht in een nieuwe cel.

Continue reading

Share This:

Google wenst geen garantie op Europese opslag

12 januari 2011

Ondanks eerdere beloften biedt Google geen garanties dat privacy- en bedrijfsgevoelige data binnen Europa blijven. Google weigert aan de wens van veel organisaties tegemoet te komen om privacy- en bedrijfsgevoelige data binnen de grenzen van de EU op te slaan. Concurrenten als Microsoft en Amazon bieden wel zo’n Europese ‘cloud’, waarmee data van burgers en bedrijven gegarandeerd binnen de EEG blijven. Een dergelijke afbakening van datacentra is steeds urgenter in het licht van recente datavorderingen door de Amerikaanse justitie in het kader van Wikileaks. Twitter slaat zijn gegevens in de VS op, dus vallen ze onder het Amerikaanse recht. Datzelfde geldt voor Google. En ondanks meerdere beloften biedt de firma nog altijd geen Europese data-opslag aan. De huidige Europese databescherming zit Google in de weg. De regels voor grensoverschrijdend dataverkeer vormen ‘een knellend jasje’ voor Google, stelde Jeroen Schouten, hoofdjurist van Google Benelux onlangs op een congres over IT-recht. Klanten die per se hun data ergens wel of niet willen, zijn bij Google aan het verkeerde adres, zo maakt Schouten duidelijk.

Continue reading

Share This:

Opslag van telecomgegevens niet nodig

16 december 2010

In 65 procent van alle opsporingsonderzoeken worden Nederlandse telecomgegevens gebruikt. Dit is onnodig, stelt Bits of Freedom. Dit wordt volgens hen door Justitie zelf bewezen. Dit concluderen Bits of Freedom (BoF), een organisatie die digitale burgerrechten verdedigt, en onderzoeker Rejo Zenger na het lezen van documenten die boven tafel kwamen via een beroep op de Wet openbaarheid bestuur (Wob). Daaruit blijkt, volgens de analyse van Zenger en BoF, dat Justitie er niet in slaagt een goede reden op te geven om door te gaan met de controversiële EU-richtlijn bewaarplicht voor telecomgegevens. Daar heeft de Europese Commissie (EC) om gevraagd. Waar Justitie helemaal niet in slaagt is te verantwoorden welke invloed de bewaarplicht heeft op de ontwikkeling van de criminaliteit in Nederland. Dit is een van de cruciale vragen die de commissie stelt. En dat is eigenlijk goed nieuws, concludeert BoF, ondanks dat wederom duidelijk wordt dat Nederland kampioen aftappen is. ‘Justitie schrijft dat zij over 2010 circa 85.000 bevragingen van deze bewaarplichtgegevens verwacht. Dat overstijgt de 78.000 uit een eerder rapport, op basis waarvan we al moesten concluderen dat Nederland Europees koploper aantal bevragingen telecomgegevens is. Die koppositie wordt in 2010 dus verstevigd’, stelt BoF.

Continue reading

Share This:

Datacenter kan datagroei nauwelijks aan

8 december 2010

De groei van de hoeveelheid gegevens die door bedrijven wordt opgeslagen is zeer problematisch voor de meeste datacenters. Uitbreiding van de capaciteit is voorgenomen, maar budgetuitbreiding niet. Die explosieve groei is de grootste uitdaging voor datacenters van grote bedrijven. Het staat in de top drie van infrastructuurproblemen bij bijna de helft van de bedrijven, die zijn ondervraagd door onderzoeksbureau Gartner. De resultaten van dat onderzoek zijn vervat in het rapport ‘User Survey Analysis: Key Trends Shaping the Future of Data Center Infrastructure Through 2011’. Het de baas worden van die bedrijfsdata dwingt de organisaties komend jaar tot maatregelen, die verder gaan dan alleen uitbreiding van de capaciteit. Dit blijkt uit dat Gartner-onderzoek dat tussen juni en augustus dit jaar is uitgevoerd onder grote bedrijven in Duitsland, Groot-Brittannië, de Verenigde Staten, Australië, Brazilië, India en China. In 2011 worden grote delen van het IT-budget uitgegeven aan archiveringssystemen (die data relatief goedkoper opslaan) en aan middelen om data secuur te wissen. Laatstgenoemde techniek draagt de naam ‘data retirement‘, en omvat zowel automatische technieken voor het veilig uitwissen van data, als harde schijven die hun eigen data zelf kunnen versleutelen (self-encrypting). Zulke harddisks kunnen met een gerust hart aan de straat gezet worden, al is dat niet de weg die ik zou kiezen. ‘While all the top data center hardware infrastructure challenges impact cost to some degree, data growth is particularly associated with increased costs relative to hardware, software, associated maintenance, administration and services’, zo zegt April Adams , onderzoeksdirecteur bij Gartner. ‘Given that cost containment remains a key focus for most organizations, positioning technologies to show that they are tightly linked to cost containment, in addition to their other benefits, is a promising approach’.

Continue reading

Share This:

Nieuwe opslagtechnologie niet gebruikt in Nederland

7 december 2010

Nederlandse bedrijven lopen niet warm voor nieuwe storagetechnieken. Risico’s worden gemeden door oude, vertrouwde technieken te blijven toepassen. Budgetten stijgen amper. Zevenhonderd Nederlandse professionals gaven hun mening op een aantal vragen over backup, recovery en storage in het algemeen. Hoewel de grote meerderheid aangeeft Backup en Recovery cruciaal (58 procent) of belangrijk (38 procent) te vinden, heeft dat geen effect op de budgetten daarvoor. Ook blijkt dat Nederlandse bedrijven een groei ervaren van gegevens die ze opgeslagen willen hebben: gemiddeld met 20 procent vergeleken met een jaar eerder. Maar voor nieuwe opslag-optimalisatietechnieken is niet veel belangstelling. Technieken als RAID 6, Thin Provisioning en Automated Tiering worden door minder dan de helft interessant gevonden. Daar staan de oudere technieken tegenover, waar de beslissers veel vertrouwen in uitspreken. Datacompressie is voor meer dan 70 procent interessant, en 60 procent zweert bij het maken van één-op-één kopieën. Tja, dat heb je ervan als je veel te lang in een bepaalde techniek blijft hangen. Maar het werkt wel….

Continue reading

Share This:

Monk brengt oude handschriften digitaal in beeld

1 november 2010

Het Target project, het grootste publiek-private ICT project in Nederland, heeft een uniek testbed opgeleverd. Het testbed kan nu 1,5 petabytes (1 petabyte = 1.000.000 gigabytes) aan data opslaan en verwerken en zal uiteindelijk een capaciteit hebben van maar liefst 10 petabytes – een hoeveelheid data gelijk aan een stapel DVD’s met een hoogte van 30 x de Martinitoren. Het Target testbed bestaat uit een grote hoeveelheid harde schijven en tapes, die samen één groot opslagsysteem vormen. Het bijzondere aan het Target testbed is het feit dat schijven (en tapes) zich op vier verschillende locaties (storage pools) bevinden in verschillende systemen. Door een ‘state of the art’ netwerk en de gecombineerde kracht van deze systemen ontstaat een zeer snel opslagsysteem met een grote opslagcapaciteit. Deze enorme verwerkingscapaciteit maakt het Target testbed uniek in de wereld. Target is in eerste instantie geïnitieerd door toepassingen binnen de sterrenkunde, één van deze toepassingen is de Lofar radiotelescoop, van stichting Astron. Lofar is ‘s werelds grootste radiotelescoop, bestaande uit lage frequentie antennes die verspreid staan over Noord-Oost Nederland en Europa. Astron zal het testbed gebruiken voor de opslag van de gigantische hoeveelheid gegevens van Lofar in het Lofar Long Term Archief.

Continue reading

Share This:

Kwantumcryptografie in Nederland

15 oktober 2010

Siemens IT Solutions and Services heeft met partners als eerste in Nederland een superveilige verbinding tussen zijn datacenters in Den Haag en Zoetermeer tot stand gebracht op basis van kwantumcryptografie. Het gaat om een proefopstelling. De met kwantumcryptografie beveiligde verbinding maakt gebruikt van ‘quantum key distribution’, waarbij continu nieuwe sleutels worden aangemaakt en uitgewisseld tussen zender en ontvanger. Door gebruik te maken van de principes van de kwantummechanica is het onmogelijk om een perfecte kopie van een sleutel te maken, omdat ze worden verstuurd in de vorm van afzonderlijke lichtdeeltjes, fotonen. Fotonen zijn maar één keer meetbaar, daarna veranderen ze op een willekeurige manier. Als de eigenschappen van de fotonen onderweg zijn veranderd, kunnen de legitieme gebruikers zien of de sleutel is ‘afgeluisterd’. De veiligheid van ‘quantum key distribution wordt gegarandeerd door fundamentele natuurwetten over het gedrag van materie en energie – kwantummechanica – in plaats van wiskundige aannames. Siemens ISS werkt in de proefopstelling samen met het Australische Senetas dat de conventionele cryptografie verzorgd, en het Zwitserse IDQ dat de kwantumcryptografie voor zijn rekeing nam. Het demoproject, dat samen met het Platform voor InformatieBeveiliging (PvIB) is georganiseerd, loopt tot het eind van het jaar.

Continue reading

Share This:

Centrale vingerafdrukkendatabase onder vuur

8 oktober 2010

De Tweede Kamer is (terecht) kritisch over de centrale opslag van vingerafdrukken. Die bijna unaniem afkeurende reactie is gegeven in een commissievergadering over de centrale opslag van vingerafdrukken. ‘Er is nog geen enkele onomkeerbare stap genomen’, zegt staatssecretaris Ank Bijleveld van Binnenlandse Zaken (BZK). De centrale opslag van vingerafdrukken en persoonsgegevens wordt overwogen om identiteitsfraude tegen te gaan. De database kan ook gebruikt worden door de Officier van Justitie om de naam van verdachten te achterhalen. Dit mag wettelijk gezien alleen als foto, vingerafdruk en geslacht van de verdachte bekend zijn. Dan kan de opdracht worden gegeven om de naam van de verdachte te achterhalen via de centrale database. De komst van de database is vastgelegd in de paspoortwet, maar er wordt nu opnieuw kritisch naar de wet gekeken. De VVD wil het debat over de centrale opslag heropenen. ‘Wat mij betreft, is er voorbijgegaan aan de kritiek’, zegt Kamerlid Jeanine Hennis-Plasschaert. Volgens haar is het ‘buitengewoon onverstandig’ om dergelijke gegevens centraal op te slaan.

Continue reading

Share This:

Een nieuw formaat voor beeldopslag ?

1 oktober 2010

Google heeft een nieuw beeldformaat ontwikkeld. Het WebP-formaat is open source en biedt een hogere compressie dan JPEG en JPEG 2000 bij gelijke beeldkwaliteit. Google heeft ook een conversietool voor WebP uitgebracht. Volgens Google maken plaatjes en foto’s ongeveer 65 procent uit van het aantal verstuurde bytes bij het laden van webpagina’s. Een groot deel daarvan is afkomstig vanJPEGs. Het nieuwe WebP-beeldformaat levert volgens Google een reductie van gemiddeld bijna veertig procent op wat betreft grootte van het beeldbestand. Net als JPEG is WebP een lossy compressiemethode, en daardoor volstrekt ongeschkt voor de langdurige bewaring van beeldmateriaal. Google baseert zich bij zijn claims op een vergelijkend onderzoeken dat het heeft uitgevoerd tussen WebP, Re-JPEG en JPEG 2000. Google heeft deze drie compressiemethodes losgelaten op een dataset van in totaal 900.000 plaatjes, waarbij het grootste gedeelte bestond uit JPEG-bestanden. Bij WebP leverde dat een gemiddelde afname in bestandsgrootte op van bijna veertig procent. Re-JPEG en JPEG 2000 bleven in de test steken op een percentage van respectievelijk 14,62 en 9,71 procent. Als parameter voor de beeldkwaliteit werd de signal-to-noise-ratio aangehouden.

Continue reading

Share This: