Studie zu Effizienzsteigerungen in Rechenzentren

2. Mai 2008 um 16:27 | blob.sing | In Hosting/Outsourcing, Produkte / Hersteller, Technologie | 2 Kommentare

McKinsey&Company und die Spezialisten vom Uptime Institute haben einen neue Studie zum Thema “Revolutionizing Data Center Energy Efficiency” veröffentlicht.

Darin liest sich, dass die Emmission von Treibhausgasen weltweit bis 2020 gegenüber heute viermal so groß sein wird, wenn keine geeigneten Gegenmaßnahmen zur Effizienzsteigerung der bisherigen Rechenzentren ergriffen werden. Momentan wächst der jährliche Energiebedarf um ca. 30 Prozent, was dazu führen würde, dass im Jahr 2010 zehn und bis 2015 30 neue Kraftwerke gebaut werden müssten, um den Energiebedarf zu decken.

Rat ist also teuer, wenn man dagegen die Bestrebungen der meisten Länder hält, die Treibhausemmissionen zu senken. Ansonsten ist wohl langfristig auch mit noch höheren Auflagen für Rechenzentrenbetreibern zu rechnen.

In der Studie werden desweiteren Maßnahmen vorgeschlagen, um die angesprochene Effizienz zu steigern und eine positivere Corporate Average Data Efficiency (CADE) zu erreichen. Den größten Faktor und Effekt könnte die Einführung von Virtualisierungstechniken in den Unternehmen bewirken. ALs Grundlage für Emmissionsmessungen dient der CADE-Wert, der sich aus den Faktoren “Facility Energy Efficiency”, “Facility Utilization”, “IT Energy Efficiency” und “IT Utilization” berechnet. Virtualisierungstechniken könnten den CADE-Wert um bis zu 30 Prozent senken. Die Abschaltung von toten Servern (ca. bis zu 25 Prozent geringerer CADE_Wert) und die Installation aktueller Hardware , sowie die Nutzung von Servern mit Stromsparfunktionen (beide bis zu 20 Prozent), können weitere Prozentpunkte einsparen. Immerhin noch ca. 15 Prozent können durch die Einführung verbesserter Kühltechniken gespart werden. Dagegen stehen natürlich die Kosten für diese Maßnahmen und der Energieeinsatz der bei der Herstellung von neuen Serverkomponenten eingesetzt werden muss.

Das Unternehmensmanagement soo außerdem – so die Studie – soll die finanzielle Verantwortung für die Rechenzentren in den Bereich der Chief Information Officer (CIO) legen. Getrente Verantwortungsbereiche für das Anlagen-Management und IT-Fragen wären demnach nicht zielführen. Die Ãœberwachung des Energieverbrauchs und der Energieeffizienz soll von einem speziellen Energieverantwortlichen wahrgenommen werden, dessen Position in den meisten Rechenzentren erst noch geschaffen werden müsste.

via: heise


Webcontrolling nicht Datenschutz-konform?

9. April 2008 um 17:21 | little.john | In Technologie, Unternehmens-News, Web 2.0 and Stuff | Kommentieren

Die Themen “Datenschutz” und “Google Analytics” beschäftigen Spezialisten schon länger – und immer häufiger zeigt sich, dass Datenschutz und Google wohl keine Freunde mehr werden.

Das sehen jetzt auch wieder deutsche Gerichte so, speziell das Amtsgericht Berlin-Mitte und das Landgericht Berlin.

Der Fall war folgender:

Ein Internetnutzer, der die Internetseite des Bundesjustizministeriums mehrmals aufgesucht hatte, verklagte die Bundesrepublik Deutschland als Rechtsträgerin des Bundesjustizministeriums. Das Bundesjustizministerium hatte für 14 Tage unter anderem die IP-Adressen der Seitenbesucher des Ministeriums gespeichert.

Der Kläger war der Auffassung, dass IP-Adressen personenbezogene Daten im Sinne des Datenschutzrechts darstellen und begehrte Unterlassung der Speicherung dieser Daten für die Zukunft sowie Löschung aller bisher gesammelten Daten. Die Gerichte gaben dem Kläger recht, sodass das Ministerium keine IP-Adressen mehr speichern durfte, ohne die für personenbezogene Daten geltenden gesetzlichen Bestimmungen zu beachten. “Unproblematisch und rechtlich einwandfrei ist die Speicherung und Auswertung von Daten wie der Verweildauer eines Nutzers auf einer Internetseite und dessen Aktivitäten auf dieser Seite, wenn dazu keine personenbezogenen Daten erhoben werden. Dabei darf es sich also nicht um Daten handeln, die eine Person, die hinter dem eigentlich anonymen Nutzer steht, identifiziert oder bestimmbar macht”, so Keller im Pressetext-Interview in Anspielung auf die Archivierung der IP-Adresse.

Dass dieses Urteil nicht nur Google und Google Analytics betrifft, ist klar – auf jeden Fall gibt es jetzt wieder genügend Diskussionsstoff über die Legalität von Webcontrolling…

via absatzwirtschaft


Google App Engine: Sicherheit für geistiges Eigentum?

9. April 2008 um 09:18 | boss | In Produkte / Hersteller, Search, Technologie | 1 Kommentar

app_engine.jpgDas Google den ursprünglichen und eher anarchischen Gedanken des Internets immer noch weit mehr verinnerlicht hat als andere Unternehmen, steht wohl außer Frage. Das Prinzip Anwendungen tendenziell kostenlos an die Nutzer abzugeben und somit alle von den vermeintlichen Vorzügen profitieren zu lassen ist ungebrochen. Allerdings hat auch und gerade Google in letzter Zeit verstärkt mit signifikanten Abgängen im Managementbereich zu tun, die darauf hindeuten, dass der Kampf zwischen dem “anarchischen Flügel” und den “bedenkentragenden Managern”, die für den kommerziellen Erfolgt verantwortlich zeigen heftiger wird.

Eine scheinbare Entwicklung “back to the roots” ist dagegen wohl die neu anstehende App Engine von Google. Neben der nun schon seit geraumer Zeit existierenden Lösung Apps für Google selbst zu entwickeln, soll nun auch eine komplette Entwicklungs- und vor allen Dingen Livebetriebsumgebung für diese bereit gestellt werden.

“Die “App Engine” soll es Entwicklern erlauben, sich auf die Software-Entwicklung zu konzentrieren, Google sorgt dann dafür, dass die zum Betrieb notwendigen Computerressourcen zur Verfügung stehen. So will Google auch Lastspitzen den Schrecken nehmen und dank automatischer Replikation und Load-Balancing dafür sorgen, dass auch ein plötzlicher Besucheransturm bewältigt werden kann” so Golem.de.

Soweit so gut. Bemerkenswert und positiv ist hier sicher die Tatsache, dass Google weit weniger Aufhebens um die Einbindung der Entwickler (in Sachen SDK etc.) macht als z.B. Apple bei der aktuellen Entwicklung des iPhones. Dass das eigentlich nur von Vorteil sein kann sieht man daran, dass defacto durch die im sog. “Installer” vorliegenden Programme für das iPhone bereits sehr performant und ausgereift sind (allerdings nur, wenn das iPhone vorher “gejailbreaked” also unlocked wurde!). Da werden sich die nun über das offiziell herausgegebene SDK zu entwickelnden Programme sicherlich daran messen lassen müssen. Aber zurück zur Google App Engine. Etwas Bauchschmerzen würden mir als Entwickler schon kommen. Ich denke da nur an die unrühmliche Diskussion in Deutschland vor gar nicht so langer Zeit, in der plötzlich und einseitig die AGB für die Nutzung von Google Apps (Docs + Spreadsheets) seitens Google geändert wurden. Hier drohte ein Zugriff von Google auf Daten innerhalb der Applikation und somit zweifelsohne auf geistiges Eigentum des Erstellers. Auch wenn ich die AGB zur Google App Engine natürlich noch nicht gesehen habe, sehe ich hier ebenfalls einen potentiellen Konflikt. Ich denke nicht, dass Entwickler von Applikationen gerne in eine ähnliche Gefahr kommen möchten. Der Umgang damit wird also sicherlich spannend werden.

via: Golem.de


T-Online Anti-Spam: … und diesmal wollten sie wirklich nur helfen!

31. März 2008 um 15:42 | boss | In Produkte / Hersteller, Technologie, Unternehmens-News | 10 Kommentare

schwein_gehabt.jpgOhne im Sinne einer journalistisch fundierten Arbeit hier auf konkrete Beispiele eingehen zu wollen steht wohl fest: T-Online hat in Sachen Service nicht den besten Ruf. Flexiebelität, Kundenorientiert etc. sind wohl noch die meistgenannten Elemente mit vorsichtig formuliert “Optimierungspotential”. Aber manchmal geht die Kritik auch wirklich über das Ziel hinaus. Da führt T-Online (endlich muss man schon fast sagen) ein zudem noch “RFC-konforme(s) [Verfahren zur] Abweisung von unerwünschten E-Mails” ein und muss sich promt massiver Kritik stellen.

Da das Verfahren natürlich im Zweifel auch “mal” “False Positives”, also fälschlicherweise als “Spam” kategorisierte E-Mails aussortiert, fürchten Kritiker den Verlust wichtiger Mails. Sehr gut finde ich darauf das schon die recht “agressive” Antwort der T-Online:

“Die Deutsche Telekom ist nicht irgendein Feld-, Wald- und Wiesen-Provider, der experimentelle Systeme einsetzt. Wir haben den Detektionsmechanismus vorher über mehrere Jahre hinweg untersucht, getestet, ausgewertet und verbessert” [...] “Im Ãœbrigen benutzt jeder größere Mailprovider solche Mechanismen, d.h. wenn Sie wirklich ALLES haben wollten, was auf Port 25/tcp hereinkommt, dann hätten Sie eigentlich nur eine Wahl: Sie müssten einen Rootserver mieten und diesen nach eigenem Gusto einrichten. Wenn Sie es dann erreichten, dessen Domain im Internet einigermaßen bekannt zu machen, würden Sie bald feststellen, dass Sie kaum noch Mails empfangen könnten, weil der Mailserver auf ein paar tausend Sockets versucht, die Mails der Spam- und Virenbots anzunehmen, dies aber von den technischen Ressourcen her nicht mehr schaffen kann.”

Gut gebrüllt – großer Löwe. Und wie gesagt, diese Initiative ist lange überfällig und bei den meisten “professionellen” Hostern sowieso schon an der Tagesordnung. Konstruktive Kritik ist immer gefragt, aber manchmal ist es auch nur rein frustrietes “Draufhauen” und das ist eben nicht wirklich hilfreich.

via: Golem.de


IT-Auftragsmanagement: Kommunikation ist alles

18. März 2008 um 12:48 | boss | In Technologie, Vertriebs Know-how | 3 Kommentare

deadend.jpgLaut einer aktuellen Befragung unter 300 Mittelstands- und Großunternehmen, ist das interne IT-Auftragsmanagement mehr als unzureichend. Große Probleme gibt es demnach schon bei der Ãœbergabe von der Fachabteilung an das IT-Management. Primär werden hier aber für mich eher zweitrangige Themen dafür verantwortlich gemacht, wie z.B. “nicht ausreichend automatisierte Prozesse”. Das ist aus meiner Sicht des Pudels Kern. Prozesse und deren Automatisierung sind sicher ein notwendiger Bestandteil eines reibungslos funktionierenden Auftragsmanagement. Wenn bestimmte Formen und Verfahren nicht eingehalten werden, oder schlimmer noch, diese nicht bestehen, kann es nicht funktionieren. Aber aus meiner Erfahrung kommt ein anderer Aspekt weit schlimmer zum Tragen. Mangelnde oder auf unterschiedlichem (fachlich/technischem) Niveau stattfindende Kommunikation.

Noch immer trifft man nämlich gerade als IT-Dienstleister, der sich sowohl an die Business Units als auch an die umsetzende/betreibende IT wendet, auf völlig unterschiedliche Anforderungen. Dass ist sicher in der Natur der Sache und auch nicht grundsätzlich schlecht. Allerdings ist auch festzuhalten, dass IT-Abteilungen zunehmend nicht mehr als Selbstzweck zu den historisch bekannten “Ehda-Kosten” (… die sind ja eh da) existieren. Vielmehr müssen sie sich als Partner und Enabler für ihre Business Abteilungen verstehen und begreifen. Das bedingt aber auch ein Mindestmaß an Verständnis für die Potentiale und Herausforderungen des Business und das zunächst einmal ohne den Blick auf “Features & Functions” eines Produkts. Erst wenn dieses Grundverständnis da ist, gelingt es dem Business auch, die Anforderungen in einer für sie ausreichenden und verständlichen Weise zu kommunizieren. Die Aufgabe der IT ist dann die “Ãœbersetzung” in eine objektiv abprüfbare und quantifizierbare Form. Fehlt das eben genannten Grundverständnis auf Seiten der IT, kann es nur zu Mißverständnissen und Fehlinterpretationen kommen.

Dieser Umstand ist aber auch gerade ein Ansatz und ein Potential für uns Hersteller und Dienstleister. Wir müssen, soweit dieses Verständnis im Unternehmen eines Kunden oder Potentials nicht vorhanden ist, einen Teil dieser Aufgabe übernehmen. Das beginnt schon im Salesprozess und gewinnt mit dessen Fortschreiten zunehmend an Bedeutung. Wenn keine Lastenhefte existieren, müssen diese durch uns hergeleitet und abgestimmt fixiert werden. Das ist eine große Chance der Differenzierung von seinen Wettbewerbern. Wenn wiederum die eigene interne Struktur das zuläßt ;-)

via: Silicon.de


XPider autom. Search: Fang den (Steuer)Bösewicht

14. Februar 2008 um 09:12 | boss | In Search, Technologie | 2 Kommentare

lupe_homepage.jpgDas Thema Suche in all seinen Ausprägungen beschäftigt uns ja hier im Blog nicht unwesentlich. Dabei ist unsere berufliche Orientierung sicher nicht unwesentlich verantwortlich dafür. Damit aber hier nicht der Eindruck entsteht, dass wir einseitig wären, hier mal etwas von einem eher weninger bekannten Projekt. Eine durch das Deutsche Börse System entwickelte Suchsystem namens Xpider stellt ein automatisiertes System dar, dass selbständig in der Lage ist, Websites und Inhalte bestimmter Typen/Ausrichtung zu scannen und Ergebnisse aufbereitet darzustellen. Die deutsche Steuerfahndung setzt das System seit 2006 als “Zoll-Suchmaschine” um Steuersünder auf die Schliche zu kommen:

“Das XPIDER-System durchsucht das Web nach Unternehmen, die dort geschäftlich tätig und hierzulande steuerpflichtig sind. Die Suchmaschine kann Webseiten automatisiert anhand von vorgegebenen Merkmalen durchforsten, die auf eine unternehmerische Tätigkeit schließen lassen. Das System ist in der Lage, Angebote und Verkäufe aus Online-Verkaufs- und Versteigerungsplattformen anbieterbezogen zu bündeln und entsprechende Anfangsverdachtsmomente zu unterfüttern. “

Es geht also hier nicht um die klassische Form des Suches per Eingabe in einen zentralen Suchschlitz sondern um eine automatisierte Form der Informationsgenerierung und noch wichtiger -verdichtung. Man könnte das als virtuellen Suchagenten bezeichnen. Allerdings äußert sich Wiki hierzu auch etwas vorsichtiger, was die Capabilities angeht:

“Die genaue Funktionsweise von XPIDER ist nicht bekannt. Ein besonderes Merkmal von Xpider ist die Lernfähigkeit. Hierdurch ist es möglich nicht nur automatisiert zu suchen, sondern auch über die Zeit die Relevanz der Suchergebnisse evolutionär zu verbessern. [...] Im November 2006 stellte der Bundesrechnungshof jedoch fest, dass es mit XPIDER “trotz mehrjähriger Datenrecherche” nicht gelang, “wirksam Personen zu identifizieren, die den Finanzbehörden Umsätze und Gewinne aus im Internet angebotenen Waren und Dienstleistungen verschwiegen haben”. Zwar übermittelte XPIDER offenbar massenhaft Daten, aber die Quote der Fälle, die eine genauere Ãœberprüfung rechtfertigten, lag nur im Promillebereich. Und bei keiner dieser Ãœberprüfungen kam etwas heraus. Die gesammelten Daten waren laut Bundesrechnungshof “nicht schlüssig” und dadurch “nicht nutzbar”.”

Trotzdem sicher mal ein spannender und weitreichenderer Ansatz von Suche als uns Endusern von den Jungs auf Mountainview gmein hin suggeriert wird. Manchmal ist das Leben eben doch nicht nur einfach.

via: Glolem.de und Wiki


« Vorherige SeiteNächste Seite »

Impressum

Powered by WordPress with Pool theme design by Borja Fernandez.
Entries and comments feeds. Valid XHTML and CSS. ^Top^

 RSS-Feed abonnieren