Journalistiek

Onpartijdig, onafhankelijk nieuws, uitsluitend in dienst van het branchebelang.

Datacenter Dongen opent deuren

  • Door
  • Arnout Veenman
  • geplaatst op
  • 2 juli 2010 08:05 uur

Mach-IT.NET heeft een klein regionaal datacentrum geopend onder de naam Datacenter Dongen. Sinds april 2010 is het datacentrum operationeel en vanaf 12 juli 2010 verwelkomt het datacentrum de eerste klanten. Datacenter Dongen beschikt over een netto datavloer van 100m2 en biedt ruimte aan 45 racks.

Alle racks zijn voorzien van een eigen noodstroomvoorziening. In elk rack bevindt zich een ATS (Automatic Transfer Switch) die een aansluiting heeft op de netspanning en de generator. Daarnaast heeft elk rack ook een eigen UPS om kortstondige stroomuitval op te vangen en het rack van spanning te blijven voorzien zolang de generator nog niet is opgestart. De elektrische infrastructuur van het datacenter heeft een maximale capaciteit van 175 Kilowatt. Ook heeft het datacentrum een dieselgenerator.

Datacenter Dongen maakt gebruik van het metro netwerk van EuroFiber. In samenwerking met EuroFiber zijn er meerdere verbindingen naar Amsterdam gerealiseerd. Op locaties in Amsterdam wordt verbinding gemaakt met diverse netwerken, waaronder; Signet, Netrouting en Grafix Internet. Al deze netwerken bieden naast IPv4- ook IPv6-connectiviteit.

Alle ruimtes zijn voorzien van bewegingsmelders welke bij detectie verlichting en camerabewaking inschakelen. Het toegangssysteem maakt het mogelijk dat klanten 24 uur per dag zelfstandig het datacentrum in kunnen.

Dick Tump (Shock Media), 2 juli 2010 9:59 am

175 kW op 45 racks, komt uit op 16A per rack. Het lijkt mij verstandiger dat als je nu een nieuw DC bouwt, je toch voor minimaal 32A gaat. Zeker bij een datacenter met capaciteit voor maar 45 racks, lijkt het mij wel voordelen hebben als je die racks efficiƫnt kunt vullen.

Tudududud, 2 juli 2010 12:24 pm

Dick,

Met 32A per rack heb je gelijk ook 2x zoveel koeling nodig. En daar lijkt me dit pand niet echt geschikt voor.

Tevens lijkt me medium/high density geen selling point van dit DC maar juist lokaliteit.

Het enige waar ik me zorgen om maak is dat er alleen van Eurofiber gebruik gemaakt word als fiber boer en alleen naar Amsterdam, klinkt nogal spof

Alex Bik, 2 juli 2010 1:51 pm

@Tudududud: Waarom zou het pand niet geschikt zijn voor meer koeling? Waar leid je dat uit af en wat is dan de beperkende factor? Waar ik me meer zorgen over maak is de afwezigheid van cold corridors. En dat terwijl die (onder voorwaarden) voor energie investerings aftrek in aanmerking komen.

Qua stroom: Lokaal of niet: Met 16A per rack zul je ze niet allemaal helemaal vol krijgen, dat is een ding wat zeker is. Aan de andere kant: Het is wel het gemiddelde. Als er een paar racks tussen zitten met transmissie spul en patchpanels wordt het verhaal al weer heel anders. Zeker als je het maar over 45 racks hebt.

Over de keuze voor alleen Eurofiber: Het is gevaarlijker om twee leveranciers te kiezen en er klakkeloos vanuit te gaan dat de fibers een andere route volgen dan twee fiberparen van dezelfde leverancier te nemen en tegen die leverancier te zeggen dat je gescheiden routes wilt. Ik zou niet weten waarom dat een SPOF is. Denzij 't geen dark fiber is natuurlijk. In dat geval ben ik het helemaal met je eens :)

Randy, 3 juli 2010 1:05 pm

Hoe noemen we een datacentrum met liefst 45 racks. Een bezemkast? De suite van een beetje een ISP is groter.
Toch een goede aanvulling voor IT'ers die op de lokale markt opereren.

bas, 3 juli 2010 11:42 pm

Wat een zuurpruimerij zeg.
Geen enkele positieve opmerking of felicitatie.

@Randy; Volgens welke definitie van een datacentrum zou er een minimaal aantal racks/vierkante meters aanwezig moeten zijn om de naam te _mogen_ dragen?

Tudududud, 4 juli 2010 12:23 pm

@Alex Bik: Dat bedoel ik juist, 32A kan opzich wel in dit pand, maar het pand ziet er redelijk hoog uit en het zijn standaard racks. Je raakt dus veel vermogen van je koeling kwijt omdat je het hele pand aan het koelen bent ipv alleen je racks.

Over de fibers, natuurlijk moet je wel v/t voren uitkiezen dat verschillende leveranciers over andere paden gaan :).

Ik maakte uit het stukje op dat de fibers alleen naar Amsterdam gaan, ik kan me herinneren dat de fibers van eurofiber daarbij allemaal over 1 pad gaan, maar ik kan hier natuurlijk naast zitten.

Alex Bik, 4 juli 2010 1:03 pm

@Tudududud:

Eurofiber heeft zeker weten meerdere routes. Hoe 't in Dongen en omgeving zit weet ik niet, maar iets noordelijker iig wel. Afgezien van hun eigen fibers hebben ze een paar jaar geleden Telecom Utrecht gekocht.

Over die warmte: Een grotere ruimte kost geen vermogen. Iets met de wet van behoud van energie. Als je een manier gevonden hebt om met een hoog pand warmte te genereren (dat zeg je in feite, anders zou het ook niet meer koeling kosten), zou ik er als ik jou was meteen patent op aanvragen. Het beetje stralingswarmte wat van die extra stukken muur af komt als het buiten heet is kun je verwaarlozen in een datacenter waar 175kW aan warmte geproduceerd wordt.

Michael Gulickx, 8 juli 2010 12:41 pm

@ Alex Bik:
EuroFiber heeft inderdaad meerdere routes naar Amsterdam toe. Op een centraal punt op het bedrijventerrein worden er 2 paden ontsloten, namelijk naar Breda en naar Tilburg.

Met de warmte zit het wel goed! Vergeet niet dat er boven de datavloer ons kantoor zit en werkplaats / opslagruimte. Dit betekent dat de hoogte van vloer tot plafond in de ruimte slechts 4,5 meter is. (Minus de verhoogde vloer). De stralingswarmte is inderdaad te verwaarlozen! Momenteel draait er nog maar 1 unit van 20Kw en deze kan het prima op 22 graden houden. (Ook met 36 graden buiten!).


Groet,

Michael Gulickx
Datacenter Dongen / Mach-IT.NET

M Veldhuizen, 10 juli 2010 10:36 am

Gefeliciteerd Mach-IT. Prima oplossing! Succes ermee en hopen op een spoedige uitbreiding!

Alex Bik, 10 juli 2010 11:07 am

Waarom 22 garden? ASHRAE specificeert al ff temperaturen tot 27 garden. Wij zitten op 25, dan hebben we nog wat marge, maar dat scheelt behoorlijk wat energie.

Igor Ybema, 11 juli 2010 8:45 am

@Alex: Leuk en aardig dat advies van ASHRAE maar de mens wil ook wat. 25 graden in de 'koude' gang levert al snel 30-35 graden in de warme gang op. Dat zijn geen prettige werk omstandigheden. Vooral niet als jij met een collega een zware server/blade chassis/SAN aan het ophangen bent in je winterkleding (omdat het buiten winter is).

Hoe gaan jullie (en jullie klanten) hier mee om dan? Wij zitten bij Equinix en die hanteren zo'n 18-20 graden in de 'koude' gang en dat vind ik al redelijk warm.

Een mogelijkheid zou zijn een adaptieve regeling die bij aanwezigheid van mensen harder gaat koelen. Geen idee hoe snel zoiets kan reageren.

En vergeet niet de extra lawaai doordat alle fans veel harder staan te draaien.

Alex Bik, 11 juli 2010 10:53 am

Interessant argument. Ja, het is lawaaierig in de ruimte. Daarom stellen we klanten die in de ruimte moeten werken oordopjes ter beschikking. Niet om gehoorbeschadiging te voorkomen, zoveel herrie is er nou ook weer niet, maar wel omdat het vermoeiend is, die herrie aan je hoofd. Het is overigens niet noemenswaardig lawaaieriger dan toen de temperatuur nog lager was.

En voor wat betreft de warmte: Ik zou 't echt van de zotte vinden om een enorme hoeveelheid energie te verspillen door een computerruimte op een voor mensen aangename temperatuur te houden. Zeker omdat er nog genoeg andere factoren overblijven waardoor het ook bij een lagere temperatuur nog steeds niet aangenaam is om in de ruimte te verblijven.

Igor Ybema, 11 juli 2010 11:59 am

Ik zie al overal kleedhokjes ontstaan bij DC's. Neem je zwemkleding mee. Je wordt niet thuisgebracht. :)

Zonder gekheid. Als je het zonde vind voor de energie om het voor de mens koel te houden dan zou je eigenlijk ook op kantoor geen airco moeten gebruiken. En toch gebruiken we in Nederland massaal airco's op kantoren. Zonde van de energie? Ik denk het niet. De productie en alertheid van de mens gaat enorm omlaag als het warm is.

Dus als het uberhaupt mogelijk is zou ik liever kiezen voor een DC die overdag (of tijdens de drukste werkuren in ieder geval) wel met lagere temperaturen werkt.

Martijn Veldhuizen, 11 juli 2010 12:28 pm

Ik snap het probleem niet om te werken met hogere tempraturen op de datavloer. Kom op.. het is een datavloer. Het is niet een werkruimte om continue te zijn. Het is bedoeld om te draaien en te laten draaien en "werken" hoor je er niet te doen.

Op de datavloer moet het een kwestie zijn van inpatchen, geleiden van kabels, stroom aansluiten, kvm oid. aansluiten en vervolgens remote ermee verder werken. De ideale apparatuur voor geleiding en apparatuur ligt veel hoger dan 18 graden.

Debuggen en alle andere zaken doe je gewoon niet op de datavloer... In sommige datacenters is het misschien niet mogelijk, maar ikzelf heb een afschuwelijke hekel om op de datavloer te werken aan een machine. Zodra ik een KVM eraan kan hangen, ben ik blij en ga ik normaal gesproken naar de rust/werk ruimte. Behalve het feit dat het beter voor je lichaam is, kun je je beter concentreren en een gezondere houding aannemen.

Voor mij: vloer 23 tot 25 graden en goed kabelmanagement..... scheelt 99,9% van al je problemen. En als je het helemaal goed doet, hoef je de machines alleen maar in te patchen en bij vervanging, is het slechts een kwestie van minuten.

Martijn Veldhuizen, 11 juli 2010 12:30 pm

1e x apparatuur bedoelde ik natuurlijk tempratuur ;)

Alex Bik, 11 juli 2010 2:05 pm

@Igor. Bullshit vergelijking. Kantoor breng je het grootste deel van de tijd dat je aan het werk bent door, bovendien kost het koelen van ons hele kantoor maar een kilowatt of 10 en dat is dan ook alleen nog maar als het buiten warm is en alleen tijdens kantooruren. Als dat gemiddeld over een jaar 1kW aan stroom verbruikt is 't veel. Wat jij voorstelt kost op een vloertje van 400m2 zeker 50kW, maar dan wel continue. En je bent er als het goed is maar heel af en toe.

Verder sluit ik me bij Martijn aan.

Je idee om alleen als er mensen zijn de temperatuur omlaag te brengen is echt het allerlaatste wat je wilt in een datacenter. Temperatuurschommelingen zijn funest voor met name voor harddisks (ivm het krimpen en uitzetten van de lagers en de schijven zelf). Je kunt nog beter je DC op 30 graden houden dan het ene moment 25 en even later weer 20.

Igor Ybema, 12 juli 2010 8:36 am

@Martijn: Uiteraard ben ik het met je eens dat je zo veel mogelijk alles remote moet doen. Maar als je groeit zoals het bedrijf waar ik momenteel werk doet kom je toch geregeld in het datacentrum om nieuwe apparatuur op te hangen. En juist dat is het zwaarste werk. En vergeet ook niet het vervangen van kapotte onderdelen, verleggen van patches en bij een stroomstoring alles langslopen. Hoe groter je wordt hoe vaker je in het datacentrum te vinden bent

Ik vind het persoonlijk niet prettig om te werken in een warme omgeving. Iedereen zijn eigen mening natuurlijk.

@Alex: Ik ben zeker voor een heel groot deel wel met je eens. Het is inderdaad erg zonde voor de energie die je er in moet stoppen. Maar zou ik mogen kiezen tussen een DC van 20 graden of een DC van 25 graden dan weet ik het wel. De prijs is natuurlijk wel bepalend er in. Enig idee wat het de klant extra zou kosten? Jullie rekenen toch met stroomprijs*PUE (waarbij de PUE natuurlijk zal stijgen als je de zaal koelen houdt)?

M Veldhuizen, 12 juli 2010 10:33 am

Hoe je het wend of keert, werken doe je niet op een datavloer. Als je je werk goed doet, hoef je bijna nooit te repatchen en als het moet, dan kan het zeer snel dankzij goed kabelmanagement.

Tevens snap ik niet dat je zolang bezig bent met het plaatsen van apparatuur. Software etc installeer je van te voren, het complete OS richt je in vanaf je werkplek. Dat betekent dus, inhangen, inpatchen en wegwezen. Tenzij je een XMR of een blade server inhangt zou dit alles onder de 10 minuten moeten duren lijkt mij.

Algoed. Zoals ik al zij, ik vind het een leuk initiatief en kan het alleen maar aanmoedigen.

M Veldhuizen, 12 juli 2010 10:34 am

Ooh en herinstallaties? Daar heb je PXE-boot en KVM voor of je pakt hem natuurlijk gewoon uit het rack ;)

Igor Ybema, 12 juli 2010 11:19 am

@Martijn: En ik ben het weer met je eens. Wij doet niet anders. Ik snap dat jij je punt wilt maken maar ik ben het volledig met je eens dat je heel veel op afstand kunt doen. Maar de momenten dat je er wel moet zijn, werkt het erg lastig in een warme DC. Ook al is dat maar 10 minuten.

Alex Bik, 12 juli 2010 3:54 pm

@Igor: Wat het precies met je PUE doet is geen universeel antwoord op te geven. Dat hangt af van hoe de koelinstallatie ontworpen is. Maar, ervan uitgaand dat de koelinstallatie ontworpen is om zo efficient mogelijk te werken bij de gegeven ruimtetemperatuur, denk ik dat het verschil tussen 20 en 25 snel 10% is. Met 25 graden ruimtetemperatuur kun je 15/20 graden water draaien (aanvoer/retour), tegen 10/15 bij 20 graden. En aangezien de temperaturen in Nederland gemiddeld over een jaar heel vaak tussen de 10 en 15 graden liggen, scheelt je dat behoorlijk wat dagen vrije koeling per jaar.

Laatste reacties

Bedankt voor het succes van ISPam.nl
Koen Stegeman, Editor-in-Chief & founder Hostingjournalist.com: Jammer Arnout, maar je hebt een mooie bijdrage aan de hosting industrie geleverd, en dat jaren lang....

Bedankt voor het succes van ISPam.nl
Dillard Blom: Jammer dat een 'instituut' verdwijnt, en daarmee een bron van informatie over actuele zaken (en opin...

Bedankt voor het succes van ISPam.nl
L.: Uit automatisme kijk ik toch nog steeds elke dag naar ispam.nl, toch de hoop dat er nog een berichtj...

Bedankt voor het succes van ISPam.nl
Toni Donkers: Arnout bedankt! ik ga het missen dat is een feit!

Bedankt voor het succes van ISPam.nl
Marcel Stegeman: Ik zie het nu pas. Inderdaad jammer maar ik kijk nu al uit naar het volgende project.