Das IT-Sicherheitskonzept zur Aufrechterhaltung und Verteidigung infrastruktur-„relevanter“ deutscher Unternehmen war ja eine ausgesprochen schwere Geburt. Viele Firmen haben da in der Abwägung von „Reputationsschäden“ herumgeeiert: „wir sind gerade total gehackt worden, aber das jetzt überall herumzuposaunen, bringt uns ja auch nicht weiter“… Auch Politiker posten ihre „epic fails“ ja nicht freiwillig… Aber natürlich ist die Sache mit Koordination und gemeinsamem Vorgehen bei richtig happigen Cyber-Angriffen schon logisch. Nicht jedes kleinere Unternehmen kann das Know-How vorhalten, größere Unternehmen mit Top-Spezialisten können da hilfreich eingreifen.
Wobei die Gegenargumentein Sachen „Cyberfeuerwehr“ natürlich auch stimmen – wieso gilt eigentlich nicht mehr die Eigenverantwortung (und Haftung…) für Bullshit, der letztlich auf smarte Kostensenkungs-Schlaumeiereien von BWL-Fuzzies zurückgeht? Was ist mit angeblichen oder tatsächlichen Geheimdienst-Hacks? Wie läuft das mit der Geheimhaltung und dem Einblick in die „Kronjuwelen“ einer Firma? Noch ist ja auch völlig fraglich, welche Unternehmen überhaupt in die BSI-Pläne eingeweiht sind und/oder als „Kooperationspartner“ mitmachen wollen.
Es gibt ja bei vielen großen, mächtigen US-Unternehmen (oder auch bei deutschen Hinterhof-Klitschen…) mit authentischem (oder auch mit nachgeäfftem…) „auf-zu-neuen-Horizonten“-Gestus so einen ganz fantastischen Titel für irgendwelche freischwebenden Gurus mit Visionen: „Chief Technology Evangelist“; oder so ähnlich. Ich habe mich immer gefragt, ob eine solche Jobbezeichnung für wahrhaft Gläubige – von Papst Franziskus bis hin zum salafistischen Eiferer – nicht eigentlich pure Blasphemie ist. Zum Glück haben beide (der Papst und der Eiferer…) Besseres bzw. Schlechteres zu tun, als sich näher damit zu beschäftigen.
„Evangelist“; wie gesagt nicht übel. Aber eigentlich hätte ich auch etwas für eine hippe Visitenkarte: „Michael Gessat – DRadio Wissen (demnächst DLF Nova 🙂 ) – Netzapokalyptiker“. Sagt meine Moderatorin. Und zugegeben – ich habe ja irgendwie ein Faible für die neuesten Hacks, Sicherheitslücken und Hintertüren; für Irrtümer, Fahrlässigkeiten, Betrug und Verrat – und irgendwie ist mir natürlich auch gar nicht immer so ganz klar, dass das apokalyptische Szenario die „ganz normalen“ Nutzer emotional, psychologisch schier überfordert. Sicherheits-müde macht.
Das US-amerikanische NIST hat das jetzt aber einmal erforscht und zweifelsfrei konstatiert: Dauerpanik und Dauer-Alarm führt bei den Adressaten zu Lähmung und Resignation. Man muss die Komplexität reduzieren, sagt das NIST. OK, es ist ja ganz einfach: Machen Sie regelmäßig Backups. Klicken Sie nicht auf jeden Link in einer Email. Ab und zu mal ein Update vom Betriebssystem. In Wirklichkeit lasse ich es selbst ab einer bestimmten Schwelle gut sein. Apokalyptiker bin ich ja gern. Aber nicht paranoid.
Dass US-amerikanische Internetfirmen in einem gewissen peinlichen Dilemma stecken, wissen wir seit Edward Snowden: NSA, CIA und FBI wollen da schon ganz gern mal sehr intensiv in die Daten der Kunden hereinschnüffeln. Und wenn da Auskunftsbegehren bzw. -anordnungen oder Abschnorchelaktionen ablaufen, dann müssen die Firmen das auch noch hübsch für sich behalten. Ein patriotischer Maulkorb halt, der freilich vielen Unternehmen überhaupt nicht passt – weil er letztlich ihr Geschäftsmodell und das wichtigste Kapital, das Vertrauen der Nutzer, komplett untergräbt.
Yahoo hat aber offenbar 2015 noch nicht einmal versucht, gegen eine „behördliche Anordnung“ von NSA bzw. FBI zu protestieren. Sondern eifrig eine eigene Xkeyscore-Schnüffelsoftware entwickelt und auf die eingehenden Mails der Kundschaft losgelassen. (Update hierzu s.u.) Bezeichnenderweise, ohne der hauseigenen IT-Security (intern „die Paranoiden“ genannt…) Bescheid zu sagen. Als Sicherheitschef Alex Ramos den Braten entdeckt hatte (der auch noch weitere Lücken in der eh schon gehackten Yahoo-Infrastruktur aufriss…), warf er Marissa Mayer die Brocken hin. Die zudem auch „konsequenterweise“ die Einführung der bereits fertig entwickelten Verschlüsselungslösung für Yahoo Mail verhindert hatte.
Die Dame hat halt lieber lieb Kind mit den Schlapphüten gemacht, aber gleichzeitig den Kunden treuherzig Bullshit erzählt. Wenn dabei auch noch Geld geflossen sein sollte, wie manche Quellen vermuten, dann war das – zumindest für das Unternehmen 🙂 – eine Fehlinvestition. (Und wieder knallen die Leute bei Verizon ihre Köpfe auf die Tische, um mal das schöne Bild von The Register aufzugreifen…)
DRadio Wissen – Hielscher oder Haase vom 05.10.2016 (Moderation: Diane Hielscher)
P.S. 06.10.2016 Inzwischen sind neue Details bekannt geworden – wie die New York Times wiederum mit Bezug auf Insider berichtet, hat Yahoo nicht, wie von Reuters beschrieben, eine gesonderte Schnüffelsoftware entwickelt, sondern das ohnehin vorhandene Modul, das eingehende Mails nach Kinderpornographie, Malware und Spam durchscannt, mit bestimmten Signaturen ergänzt. Diese Signaturen oder Schlüsselbegriffe wurden von einem Geheimdienst zur Verfügung gestellt und sollten offenbar Mails einer – nicht weiter identifizierten – ausländischen „Terrororganisation“ aufdecken helfen.
Ob das die Angelegenheit weniger gravierend macht, ist eine äußerst interessante Frage. Zum einen akzeptieren ja (was für mich selbst schon nie nachvollziehbar war) offenbar Millionen von Menschen, dass Google ihre Gmails ebenfalls durchscannt – wenn auch nicht, um das einem Geheimdienst zu petzen, sondern „nur“, um einem „interessante“ Werbung zukommen zu lassen. („Sie interessieren sich für Bombenanschläge? Probieren Sie unser neues Dschihad-Kit für handwerklich unbegabte Volldebile! Besuchen Sie auch unseren Wollstrickmützchen-Shop und schauen Sie sich unsere Pflegeprodukte für Vollbärte an.“ 🙂 ) Wenn man das Argument „sie werden ja nur von einem Roboter durchsucht“ akzeptiert, dann könnte man das ja tatsächlich genauso gut auf die analoge Welt übertragen. Ein Albtraum.
Inzwischen knallen die Leute bei Verizon nicht mehr nur ihre Köpfe auf den Tisch, sondern haben auch ihren Kaufpreis mal eben um eine Milliarde nach unten angepasst.
P.S. 07.10.2016 Und ein weiterer unbekannter Yahoo-Insider bezeichnet wiederum die Darstellung bei der NYT, es habe sich „nur“ um eine Erweiterung des Malware-Scanmoduls gehandelt, als falsch. Eine solche Modifikation wäre dem Yahoo-IT-Security-Team gar nicht ohne weiteres aufgefallen. Es habe sich eben doch um eine gesonderte Backdoor gehandelt, die dann auch (wie schon ursprünglich berichtet…) ein weiteres Einfallstor für Hackerangriffe aufgerissen habe.
Was schon einmal gefloppt hat im Netz, muss nicht zwangsläufig hoffnungslos sein. Vielleicht war einfach 2007 die Zeit noch nicht reif. Jetzt ist zum Beispiel die praktisch flächendeckende Versorgung mit Smartphones beim kaufkräftigen Teil der Weltbevölkerung (es soll allerdings immer noch ein paar Technik-Verweigerer(innen) mit durchaus guten Renten geben 🙂 …) ein Argument, warum der zweite „Marketplace“-Launch von Facebook diesmal mit einem Akzent auf lokalen Privatangeboten erfolgreich sein könnte. Letztlich geht es allen Inserenten und allen Interessenten darum, dass auf einer Käufer-Verkäufer-Plattform möglichst viele Leute unterwegs sind.
Dass auch bei Marketplace 2.0 einige Spaßvögel sofort mit Facebook-inkompatiblem Schmutz und Schund hineingrätschen, war vorhersehbar. Da wird Mark Zuckerberg wohl sein Aufsichtspersonal wieder mal etwas aufstocken müssen.
Gerade haben wir noch gestaunt, mit welchen Datenmengen unbekannte Angreifer den IT-Journalisten Brian Krebs mundtot machen wollten, da kommt schon der nächste Rekordwert für eine DDoS-Attacke: 1,1 Terabit pro Sekunde soll in der Spitze auf die Server des französischen Webhosters OVH niedergegangen sein. Der Angriff zieht sich schon seit 10 Tagen hin, das berichtet der Gründer des Unternehmens, Octave Klaba, auf Twitter. Klaba vermutet, vom gleichen Botnetz wie im Falle von Brian Krebs attackiert zu werden – was ja noch nicht einmal heißen muss, dass auch die gleichen Verantwortlichen bzw. Auftraggeber dahinterstecken: Möglicherweise handelt es sich ja wiederum um „DDOs as a service“.
Auf jeden Fall kommt die Datenflut erneut von scheinbar „unschuldigen“ kleinen Internet-Dingen; hauptsächlich von gehackten Webcams – die Angreifer haben da offenbar Zugriff auf eine gewaltige Anzahl; zum Wochenanfang registrierte Klaba innerhalb von 48 Stunden 15.000 neu hinzugeschaltete Zombie-Cams, in den nächsten 24 Stunden waren es dann sogar weitere 18.000. Die neue Rekordattacke dürfte auch Admins in größeren Firmen und Medienhäusern die Sorgenfalten tiefer werden lassen – denn bei solchen Traffic-Dimensionen kann man auch mit einer gut ausgestatteten Firewall-Architektur die eigene Website nicht mehr verteidigen.
Fragt sich, ob die großen Content-Distribution-Anbieter der neuen Herausforderung noch gewachsen sind und ihren Kunden weiterhin bezahlbaren Schutz bieten können. Die aktuellen Rekord-Attacken könnten innerhalb von zwei Jahren der neue DDoS-Standard geworden sein, so sieht es auch Martin McKeay, „Senior Security Advocate“ bei Akamai und verantwortlich für den regelmäßigen „State of the Internet/Security Report“ des Unternehmens. Aber er bleibt zuversichtlich:
Mit jedem neuen Angriff lernen wir, unsere eigenen Fähigkeiten neu zu überprüfen, damit unsere Verteidigung besser und effizienter wird. Einerseits müssen wir sicherstellen, dass wir ausreichende Kapazitäten haben, um die Attacken zu absorbieren. Andererseits müssen wir aber auch mit neuen Entschärfungstechniken kontern, die nicht allein auf einer „noch dickeren Leitung“ beruhen. Es ist auch sehr wichtig, die Werkzeuge und die Fähigkeiten der Angreifer zu analysieren, um mit zukünftigen Attacken umgehen zu können.
Das Problem, so Martin McKeay, besteht nicht zuletzt darin, dass Angriffspakete aus dem IoT zunächst einmal überhaupt nicht exotisch daherkommen, es ist also keineswegs trivial, den „bösen“ und den „guten“ Traffic auseinanderzuhalten:
Die meisten „Internet-der-Dinge“-Geräte nutzen ganz herkömmliche Computerhardware, keine Spezialanfertigungen. Und auch die verwendete Software ist allgemeiner Standard, der Traffic sieht also praktisch genauso aus und verhält sich praktisch genauso wie bei jedem anderen Gerät oder Computer im Internet.
Und auch wenn man Botnetz-Traffic mit viel Know-How immerhin noch teilweise identifizieren könne – der Schlüssel zum Problem liege woanders, so McKeay.
Der entscheidende Faktor, mit den IoT-Bots fertig zu werden: Wir müssen den Geräteherstellern klarmachen, welche Gefahren sie mit ihren unsicheren und schlecht wartbaren Produkten schaffen.
Bislang ist auf dieser Seite allerdings von entsprechendem Problembewusstsein nichts zu spüren. Vielleicht müsste da einmal in einer Reihe von Fällen die ganz große Produkthaftungs-Keule zur Anwendung kommen.
DRadio Wissen – Hielscher oder Haase vom 30.09.2016 (Moderation: Till Haase)
Nachklapp 03.10.2016 – Mittlerweile weiß Brian Krebs höchst interessante Details zu der IoT-Attacke zu berichten: Ein Hacker, der sich „Anna-senpai“ nennt, macht den Quellcode seiner Botnetz-Malware öffentlich. Er (oder sie) selbst habe nicht vorgehabt, allzu lange im DDoS-Business zu bleiben. Und neben diesem „Mirai“-Toolkit kursiert noch ein weiteres namens „Bashlight“. Das ist ja großartig, dann werden IoT-Angriffe vielleicht bald schon etwas für Script-Kiddies. 🙂 Und um mal direkt mit dem Finger zu zeigen: Laut der Security-Firma Level 3 haben Webcams des Herstellers Dahua (Default-Passwort „7ujMko0admin“) im aktuellen Fall die Zombie-Armee gestellt.
Nachklapp 04.10.2016 – Ein Teil der Verantwortung liegt natürlich bei Kunden, die Default-Passwörter nicht ändern. Dabei ist anzumerken, dass ein „einfacher Konsument“ ein Smart-TV oder ähnliches eben „in Betrieb nimmt“ und nicht wie ein Admin oder Computerfachmann bewusst als neues Netz-System einrichtet. Hier gehören unübersehbare Hinweise in die Betriebsanweisungen und in den Setup-Ablauf. Richtig übel: Anscheinend gewährleistet die Wahl eines eigenen Passwortes im Web-Interface der Geräte noch lange nicht, dass nicht Telnet- oder SSH-Zugang munter weiter mit dem Default-Account erreichbar bleiben.
DRadio Wissen – Hielscher oder Haase vom 4.10.2016 (Moderation: Diane Hielscher)
Alle, die sich schon seinerzeit gefragt hatten, wie Facebook denn den nicht ganz billigen Einkauf von WhatsApp letztlich „monetarisieren“ wollte, wissen ja seit Ende August Bescheid: „Was kümmert mich mein Geschwätz von gestern?“; „Versprochen, Gebrochen“. Ach so.
Johannes Caspar, als Hamburger Datenschutzbeauftragter für die deutsche Facebook-Niederlassung zuständig, sieht das nicht so gelassen. Das nicht eingehaltene Versprechen, die Kundendaten beider Unternehmen nicht auszutauschen, sei eine Irreführung der Verbraucher – die Annahme dürfte wohl plausibel sein, dass viele WhatsApp-User (bei allen eigenen Privacy-Problemen dieses Unternehmens bzw. des Konzepts…) nicht begeistert davon sind, dass ihre Telefonnummern und Kommunikationsgepflogenheiten an Big Brother und dessen Werbekunden gehen. Und sich – korrekt informiert – einem Konkurrenz-Messenger zugewendet hätten.
Dann hätten sie ja bis 25. September widersprechen können, sagt Facebook. Nein, so herum läuft das hier bei uns nicht, sie hätten aktiv zustimmen müssen, sagt Caspar. Es gehört keine allzu große Prophetengabe dazu, um hier wieder einmal eine sehr, sehr langwierige juristische Auseinandersetzung vorherzusagen.
Es ist zwei Wochen her, da haben wir über ein reichlich dreistes Geschäftsmodell zweier Jugendlicher in Israel geredet. Enttarnt hatte die beiden ambitionierten Hacker der bekannte US-amerikanische IT-Journalist Brian Krebs. Und dessen Webseite wurde nun letzte Woche aus dem Netz gepustet – mit dem größten jemals registrierten DDoS-Angriff. Das klingt jetzt nicht unbedingt nach reinem Zufall. Mittlerweile ist der Kollege wieder erreichbar im Netz – unter den Fittichen von Googles „Shield“.
Zuvor hatte Akamai mit seinem – ebenfalls gratis zur Verfügung gestellten – CDN und DDoS-Schutz das Handtuch geworfen; ob das letztlich eine kluge und ökonomisch sinnvolle Entscheidung war, das kann man getrost bezweifeln. Kapitulation vor den Netz-Bösewichtern ist kein geschäftsförderndes Signal, auch wenn das Dagegenhalten richtig Geld kostet. Wie nah das Netz wirklich an der Kippe und in der Hand von Vandalen oder Plattmachern ist, darüber kann man jetzt trefflich spekulieren. Denn ganz klar – der Angriff auf Krebs war eine Machtdemonstration; dass die Attacke von den doch eigentlich arrestierten israelischen Sportsfreunden stammt, ist relativ unwahrscheinlich – außer, die beiden wollen ihre Zukunft hinter Gittern noch signifikant verlängern 🙂 …
Aber Krebs hat ganz recht mit seiner aktuellen Überschrift – die Möglichkeit zur Zensur, dazu, unliebsame Stimmen im Netz zum Schweigen zu bringen, die hat mittlerweile jeder böswillige Akteur. Nicht zuletzt, weil Hersteller millionenfach vermeintlich simple und dumme Devices ins „internet der Dinge“ bringen – simple, dumme, einfach ausnutzbare und niemals gestopfte Sicherheitslücken inklusive. Die Webcams, Router, Fernseher und Android-Zombies bringen aber ein ganz ordentliches Botnet zusammen. Das kann so nicht weitergehen.
DRadio Wissen – Hielscher oder Haase vom 27.09.2016 (Moderation: Till Haase)
Eine SSD als Systemlaufwerk ist heutzutage fast schon der Normalfall – der Performanceschub gegenüber einer normalen Festplatte ist gewaltig. Gewaltig sind allerdings auch die Datenmengen, die ein ganz normal vor sich hinlaufendes Betriebssystem so produziert, das am Netz hängt. Da werden im Hintergrund Updates gezogen, Inhalte aktualisiert, dazu kommen dann natürlich Mails und der komplette Traffic beim Surfen. Und dabei läppert sich einiges zusammen, wohlgemerkt ohne dass man jeden Tag ein paar BluRay-Filmchen aus obskuren Quellen heruntersaugt 🙂 …
Auf dem Systemlaufwerk spielen sich üblicherweise auch alle temporären Schreibprozesse ab – also die Zwischenspeicherung von Downloads, auch wenn die anschließend auf der externen „Datengrab“-Festplatte landen. Oder das Auspacken von Zip-Dateien, auch wenn die auf anderen Laufwerken liegen. Und genau deswegen, weil all diese Prozesse nun mit wesentlich höheren Schreib- und Leseraten auf der SSD ablaufen, fühlt sich der ganze Rechner schneller an. Soweit, so gut – selbstverständlich sind aktuelle SSDs auch so konstruiert, dass sie in einem normalen Nutzungs-Szenario jahrelang ihren Dienst tun. „Unkaputtbar“ sind die Festplatten-Nachfolger hingegen keineswegs.
Die Anzahl der Schreibzyklen, die eine Flash-Speicherzelle verkraftet, ist endlich. Und deswegen geben die Hersteller für ihre Produkte – und zwar aufgeschlüsselt für die billigeren „Consumer“ und die teureren „Professional“-Produktlinien – eine zulässige durchschnittliche Schreibrate z.B. pro Tag an, die dann zu einer bestimmten Lebenserwartung der SSD führt. Wenn ein Nutzer diese Schreibrate überschreitet, dann darf er mit einem vorzeitigen Ableben des Laufwerks rechnen. Und genau das könnte Firefox-Usern drohen – zumindest „Heavy-Usern“, die schon mal drei Browserfenster parallel aufmachen und darin jeweils eine Reihe von Tabs geöffnet haben.
Das nämlich führt offenbar zu ziemlich exzessiven Schreibaktivitäten, die schon einmal locker die Hälfte der „zulässigen“ Tagesdosis verbraten – so die Analyse von IT-Fachmann Sergei Bobik. Verantwortlich ist ein Feature von Firefox, das nach einem Absturz des Browsers oder des Systems (oder auch nach einem versehentlichen Schließen des Browserfensters) die Fenster und Tabs wiederherstellt. In den Kommentaren unter dem Blogartikel bestätigt ein Firefox-Programmierer, man sei sich des Problems bewusst – andererseits sei das Feature für viele Anwender absolut unverzichtbar. Als Hotfix schlägt Bobik vor, das Sicherungsintervall in der Firefox-Konfiguration (about:config) etwa von den standardmäßigen 15 Sekunden auf eine halbe Stunde zu erhöhen. Dann könne man die „sessionstore“-Funktion aber auch ebensogut ganz abschalten, lautet eine Gegenstimme.
Fazit: Ein SSD-Killer ist Firefox (Chrome verhält sich übrigens ähnlich…) damit noch nicht. Aber ernstnehmen sollte man die Sache schon – und gegebenfalls die Balance zwischen dem Nutzwert des Sicherungsfeatures und der Lebensdauer der SSD neu austarieren. Übrigens – haben Sie eigentlich ein aktuelles Backup bzw. Image Ihres Systemlaufwerks? Sollten Sie aber haben.
P.S. 27.09.2016 – Wir haben das Thema heute auch bei DRadio Wissen besprochen. Firefox-Hersteller Mozilla hatte auf Anfrage die Aussagen des Programmierers unter dem Artikel von Bobik bestätigt. Das Ganze sei aber kein Bug, sondern ein Feature:
„Firefox schreibt die Daten der Browsersitzung regelmäßig auf das Laufwerk, damit wir sie im Falle eines Absturzes oder Stromausfalls wiederherstellen können. Die Standardeinstellung von Firefox räumt dabei der Sicherheit der Nutzerdaten einen höheren Stellenwert ein als der Schreibleistung des Laufwerks.“
Wenn ein Nutzer das anders gewichten möchte, empfiehlt auch Mozilla die Verlängerung des Sicherungsintervalls – möglicherweise wird auch in einer kommenden Firefox-Version der Default-Wert nach oben angepasst.
DRadio Wissen – Hielscher oder Haase vom 27.09.2016 (Moderation: Till Haase)
P.S. 29.09.2016 – Für den Artikel bei Spiegel Online hatte ich auch noch bei Samsung um eine Erläuterung gebeten – die Spezifikationen auf den Produktwebseiten des Herstellers sind nämlich zunächst einmal nicht ganz einfach zu interpretieren: Die zulässigen Höchstwerte gibt Samsung in drei verschiedenen Größeneinheiten an: In „TBW“, was mal für „Terabytes Written“, mal für „Total Bytes Written“ steht. Im Datenblatt für das ältere Modell 840 Proist hingegen z.B. von „5 Jahren Garantie bei maximaler Schreibleistung von 40 GB/Tag“ die Rede.
Laut Samsung kann TBW „sowohl als ‚Total Bytes Written‘ wie auch als ‚Terabyte Written‘ aufgefasst werden, wobei ersteres gängiger ist.“ Tatsächlich ist es aber so, dass innerhalb einer Baureihe die SSDs mit höheren Speicherkapazitäten für einen höheren TBW-Wert innerhalb der Garantiefrist spezifiziert sind:
Der Rechenweg lautet hier:
(TBW-Wert / (Garantiejahre*365))*1000 (wir sind hier mit SI-Einheiten unterwegs – die Multiplikation mit 1000 benötigen wir für die Umrechnung von TB in GB)
Im Konkreten Fall der 850 EVO 250 GB und 120 GB lautet der Rechenweg folgendermaßen: (75 TB / (5 * 365)) * 1000 = 41,1 GB pro Tag
Die 500 GB und 1 TB Varianten haben 150 TB TBW. (150 TB / (5 * 365)) * 1000 = 82,2 GB pro Tag
Die 2 TB und 4 TB Varianten haben 300 TB TBW. (300 TB / (5*365)) *1000 = 164,4 GB pro Tag
Das heißt im Klartext: Auf SSDs mit höheren Kapazitäten fällt die von Firefox bzw. anderen Browsern durch die Sitzungswiederherstellung erzeugte Schreibbelastung verhältnismäßig weniger stark ins Gewicht. Samsung gibt also Entwarnung:
Für Samsungs SSDs stellt aber auch die höhere Schreibbelastung von 12 GB am Tag kein Problem dar. Die von den Browsern verursachte Schreiblast ist zwar ärgerlich, aber nichts, was die Lebensdauer von Samsungs SSDs bedroht.
Zumindest wenn man Lebensdauer mit dem Garantiezeitraum gleichsetzt, hat Samsung hier bei den größeren Modellen bestimmt recht. Und fairerweise muss man auch anmerken – selbst nach den Erfahrungen von Datenrettungsunternehmen ist es keineswegs so, dass eine SSD nach Überschreiten der garantierten Schreiblast von heute auf morgen ausfällt – da ist eine Menge „Luft nach oben“ mit einkalkuliert. Aber zumindest bei kleinen SSDs (viele SSD-Einsteiger oder-Aufrüster dürften solche Laufwerke eingebaut haben, weil sie ja das Gesamtsystem signifikant beschleunigen und große SSDs im Vergleich zu Festplatten immer noch erheblich teurer sind…) ist das „kein Problem“ nicht so einfach nachvollziehbar. Denn wie schon erwähnt – die 12 GB (oder mehr…) sind ja eine zusätzliche Belastung zu der „normalen“ und auch schon sehr datenintensiven Nutzung eines Systemlaufwerks.
Und die kann offenbar (es kommt natürlich immer auf die individuellen Nutzungsgewohnheiten an…) bei 30 GB/Tag liegen – das ist jedenfalls der Wert, den mir mein Samsung-Diagnosetool als tägliche Belastung meines Systemlaufwerks anzeigt, wenn der Rechner durchläuft. Und mit meinem Firefox-Anteil bin ich dabei weit unter den bei Bobik angegebenen Werten, obwohl ich auch oft mehrere Browserfenster und zig Tabs regelmäßig geöffnet habe. Möglicherweise liegt das am Adblocker und NoScript 🙂 .
Nicht immer ist die größte Zahl auch Garant für höchste Qualität. Das gilt für Einschaltquoten, Follower im Netz und auch für Hacking-Aktionen. Im Fall von Yahoos Desaster gleichermaßen für Täter und Opfer: Bevor wir Näheres über die Art und Weise wissen, wie denn jetzt die angeblichen Staats-Hacker in das Netz der digitalen Resterampe eingedrungen sind, können wir die Hacking-Leistung nicht beurteilen. Vielleicht war das ja völlig simpel. Und bevor wir nicht wissen, wieviel der „mindestens 500 Millionen“ betroffenen Kundenkonten Karteileichen waren, können wir auch den tatsächlichen Schaden für die Yahoo-Nutzer bzw. das Netz nicht abschätzen.
Aber dass das Yahoo-Management, allen voran die vielleicht schlechteste Totes-Pferd-Reiterin aller Zeiten, Marissa Mayer, die Angelegenheit heruntergespielt hat, um den Verkaufspreis von Yahoo und die eigene Versager-Prämie nicht zu schmälern – da würde ich jetzt mal glatt drauf wetten. Vielleicht klärt sich das ja noch in den nächsten Tagen oder Wochen – dann wird das u.U. eine richtig happige Sache, wenn man da die Öffentlichkeit, den potentiellen Käufer Verizon und die Aktionäre hinters Licht geführt haben sollte.
DRadio Wissen – Hielscher oder Haase vom 23.09.2016 (Moderation: Diane Hielscher)
P.S. (29.09.2016): Da war wohl etwas dran an den Gerüchten um zwar erkannte, aber nicht behobene Sicherheitsschlampereien, wie nun die New York Times berichtet.
Wenn der Torben der Anna das Förmchen wegnimmt, dann die Anna dem Torben das Förmchen wieder zurückwegnimmt, dann der Torben wieder der Anna das Förmchen wegnimmt und die Anna wieder dem Torben – dann kann das endlos so weitergehen, bis beide erschöpft in den Sandkasten fallen oder einer aufgibt oder beide sich einigen. (Früher hätte es nach dem dritten Mal eine Watschn gegeben und dann wäre die Angelegenheit ebenfalls beendet gewesen 🙂 ).
Intelligenter als Kleinkinder sind Software-Bots natürlich nicht, ganz im Gegenteil. Dafür sind sie aber unermüdlich, humorlos und kompromiss-unfähig. (Und „passiv-aggressiv“ – eine schöne Diagnose von Techcrunch…) Und so lange ihnen keiner eine Watschn gibt oder den Stecker zieht, machen sie halt den Routinejob, für den sie programmiert worden sind. Jahrelang, wenn es sein muss. Wie das jetzt genau zu mehr „Intelligenz“ im Netz und in Apps führen soll, das ist ganz grundsätzlich-methodisch die Frage – so ungefähr lautet die These von Informatikern vom Oxford Internet Institute und dem Alan Turing Institute in London. Oder anders gesagt – bestenfalls hat die „Intelligenz“ der Bots etwas mit der Schlau- oder Blödheit der Leute zu tun, die sie programmiert haben.