Der bekannte Spruch “Sex sells” trifft nicht nur für das Leben jenseits des Internet zu – ganz im Gegenteil sogar. Ein beachtlicher Anteil der Internetbenutzer und deren Suchanfragen befassen sich mit erotischen oder pornografischen Inhalten. Dieser Sachverhalt führt bereits seit längerer Zeit für Probleme im Bereich des Jugendschutzes. Während es für Erwachsene ohne Probleme möglich sein sollte sich entsprechende FSK18-Inhalte zu betrachten, gilt es nicht für Jungendliche geeignete Inhalte vor eben diesen abzugrenzen. Während in Deutschland der Jugendschutz sehr restriktiv gehandhabt wird und deutsche Pornoseiten dementsprechend nur nach einer hinreichend genauen Altersverifikation zugänglich gemacht werden, ist dies in vielen anderen Ländern nicht der Fall. Oft muss lediglich bestätigt werden, dass der Benutzer auch tatsächlich volljährig ist – was letztendlich jeder behaupten kann. Dieser zu legere Umgang mit dem Jugendschutz hat dazu geführt, dass es seit Jahren eine rege Diskussion um die Sperrung von Pornoseiten im Internet gibt. Doch eine Regulierung durch den Verbot solcher Inhalte widerspricht grundsätzlich dem Gedanken des Internets. Eine andere Lösung wäre daher wünschenswert.

Ein möglicherweise erfolgsversprechender Ansatz ist die kürzlich neu eingeführte Topleveldomain .xxx – welche speziell für erotische Inhalte gedacht ist. Durch die neue TLD sollen die Inhalte besser von dem restlichen Internet abgrenzbar gemacht werden. Dies würde es vielen Softwareanbietern vereinfachen Schutzprogramme für besorgte Eltern zu programmieren. Das sperren der stetig neu hinzukommenden Seiten ist für die meisten Eltern zurzeit nicht realisierbar. Durch das Sperren einer ganzen Domainendung könnte dieses Problem gemildert werden. Voraussetzung dafür ist allerdings eine breite akzeptanz der neuen Domainendung. Hierbei ist jedoch zu hinterfragen, was mit den Pornoseiten gemacht werden soll, welche weiterhin auf “normale” TLDs setzen – so richtig durchdacht ist das Konzept noch nicht.

Doch nicht nur der Jugendschutz soll durch die .xxx-Domains vereinfacht werden. Ein viel größeres und immer schneller zunehmendes Problem stellen die zahlreichen Trojaner und Viren dar. Diese finden sich überproportional oft auf den besagten Angeboten, insbesonder jedoch auf vielen der kostenlosen Pornoseiten. Deren Betreiber wollen schließlich ebenfalls ein Stück dieses lukrativen Marktes für sich beanspruchen. Nach Angaben einiger namhafter Hersteller von Antivirenprogrammen soll die neue Domainendung dazu beitragen, dass das Internet sicherer wird. Dies wird darin begründet, dass die neuen Erotikdomains durch die Anbieter fokussierter beobachtet werden können. So ist es denkbar, dass die Antivirenprogramme in regelmäßigen Abständen insbesondere die .xxx-Domains auf neue Schadsoftware analysieren und deren Besucher vor eben diesen Programmen schützen. Bereits jetzt haben sich einige Sicherheitsexperten zu Wort gemeldet und den genannten Mehrwert zumindest teilweise relativiert. Ob die Einführung der .xxx-Domain tatsächlich mehr Sicherheit gewährleisten wird bleibt vorerst einen Beweis schuldig. Die zahlreichen Sicherheitsprobleme der aktuellen Browser werden so jedenfalls nicht gelöst werden können.

Die Registrierung der neuen Domainendung hat im Dezember 2011 begonnen und laut der Betreiberfirma ICM Registry in Florida ist der Start als Erfolg zu sehen. Dies jedoch nicht primär durch einen Ansturm auf die neue Endung, sondern vielmehr durch die Finalisierung der seit Jahren vorangetriebenen Bemühungen eine eigene Domain für die Erotikindustrie zu etablieren. „Wir haben in zehn Jahren viel Geld, Blut, Schweiß und Tränen in dieses Projekt investiert“, sagte Firmenchef Stuart Lawley.

{ 0 comments }

Google hat eine erweiterte Version ihres Dienstes „Google Maps“ veröffentlicht.  Der Service verwendet nun eine neue Software namens WebGL, welche die Geschwindigkeit von Google Maps deutlich verbessern soll. Zurzeit kann die Erweiterung von Nutzern mit einem aktuellen Chrome-Browser oder der neusten Beta des Firefox getestet werden.

Die Beschleunigung der Grafikdarstellung bezieht sich vornehmlich auf die Übergänge zwischen 2- und 3-dimensionalen Satellitenansichten. Der Perspektivenwechsel beim Drehen der Karte wird dank WebGL ohne Latenz dargestellt.

Laut Heise konnte eine deutlich schnellerer Bildaufbau festgestellt werden. Zum Einsatz kam bei dem Test eine ATI-Grafikkarte des Modells Radeon HD 4670 in Kombination mit Chrome 145 und einem iMac. Obwohl die Karte in keiner der aktuellen Grafikkarten-Ranglisten (beispielsweise auf Grafikkarten-Rangliste.org) vertreten ist, konnten deutliche Geschwindigkeitsvorteile verzeichnet werden.

„So lud Google Maps beim fünfmaligen Zoomen von der Voreinstellung bis auf Streetview-Ansicht des römischen Kolosseums 3,1 MByte in gut 25 Sekunden. Die WebGL-Variante brauchte nur knapp 15 Sekunden für 1,7 MByte Daten.“

Noch deutlicher wird der Performancevorteil scheinbar beim Drehen der Karten. In einem typischen Anwendungsfall konnte die Karte innerhalb von nur 14 Sekunden anstatt in 21 Sekunden aufgebaut werden.

Wer die neue Funktion testen mag, kann dies unter maps.google.com/gl tun.

{ 0 comments }

Viele kennen das Problem: Neue Technologien erobern in einer immer schnelleren Zeit den Markt und liefern dabei eine stetig steigende Anzahl an Funktionen. Während auf der einen Seite die neuen Optionen sehr willkommen sind, da diese in der Regel dafür sorgen, dass spezifische Probleme schneller gelöst werden können, gibt es allerdings auch hier eine Kehrseite der Medaille. Eines der aktuellen Beispiele für das angesprochene Problem ist die Entwicklung klassischer Handys zu den heute am Markt befindlichen Smartphones. Früher konnte mit einem Handy telefoniert, SMS oder MMS versendet werden und das war es auch bereits zum großen Teil. Die heute üblichen Smartphones dahingegen erlauben eine Vielzahl zusätzlicher Funktionen. Durch die integrierten Browser stehen dem Nutzer nicht nur Funktionen wie GPS und Navigation zur Verfügung, sondern darüber hinaus auch das gesamte Spektrum an Internanwendungen. Für die jüngeren Generationen ist dieser Fortschritt in der Regel sehr begrüßenswert, da die verschiedenen Geräte immer weiter konvergieren und der Trend dadurch zu einem mobilen Endgerät geht, welches die meisten Anwendungsszenarien abdecken kann. Dem gegnüber steht allerdings das Problem, dass ein immer größerer Anteil der Bevölkerung in den Industrienationen von dieser Entwicklung ausgeschlossen wird oder die neuen Technologien dafür sorgen, dass ihnen die Benutzung der neusten Geräteklassen immer schwerer fällt. Und das obwohl die Demografische Entwicklung einen ganz klaren Trend dahingehend hat, dass die angesprochenen Gesellschaften immer älter werden. Doch dies muss nicht immer so sein! Immer mehr Hersteller von Elektronikprodukten haben in den letzten Jahren erkannt, dass genau diese Zielgruppe ganz andere Anforderungen an die zugrunde liegenden Technologien stellt. Ein Beispiel für solche eine neue Geräteklasse stellen beispielsweise die Seniorenhandys dar. Im Gegensatz zu den modernen Smartphones haben die Hersteller hierbei darauf geachtet, dass nur die Funktionen implementiert werden, welche für den spezifischen Anwendungsfall auch besonders relevant sind – ein Telefon soll schließlich vornehmlich telefonieren können. Ferner haben sich die Hersteller der Seniorenhandys darauf bedacht, das Design an die haptischen Besonderheiten älterer Menschen anzupassen. Anstatt auf moderne Touchscreens zu setzen, werden in der Regel klassische Tasten verbaut, welche durch eine besonders große Bauweise dazu noch besonders einfach zu Bedienen sind.

Abgerundet werden die im Beispiel genannten Seniorenhandys durch spezifsche Funktionen. Notruf oder automatischer Rückruf sind nur zwei Beispiele. Es bleibt abzuwarten, ob die Hersteller von modernen Elektronikprodukten im Jahr 2011 dieses Marktsegment weiter durchdringen werden und die besondere Relevanz für solche Produkte erkennen. Immer kürzere und schnellere Produkzyklen mögen für den technologischen Fortschritt von Vorteil sein. Für einen großen Teil der Nutzer sind die positiven Effekte in der Regel jedoch gar nicht so groß, wie dies meistens erwartet wird. Hier gilt es den Benutzer wieder in den Fokus der Produktentwicklung zu stellen und die neuen Technologien konsequent an den spezifischen Anwendungsszenarien und Bedürfnissen auszurichten, anstatt zu versuchen, Produkte zu entwickeln, welche generell veruchen alle denkbaren Aufgaben lösen zu können.

{ 0 comments }

Twitter Retweets: Eine Art Kollektive Intelligenz?

Eine wissenschaftliche Studie hat sich “Twitter” jetzt von einem interessanten Gesichtspunkt her genähert und ist zu dem Schluss gekommen, dass Twitter mehr als Nachrichtendienst denn als soziales Netzwerk zu sehen ist. Jeder Nutzer nimmt Einfluss auf das System – doch ist die relevante Zahl die der “Retweets”, die ein Nutzer sendet und nicht die seiner [...]

weiterlesen

Top 10 Trends im Internet im Jahr 2010

1. Soziale Netzwerke: Die Sozialen Netzwerke haben auch in diesem Jahr wieder Millionen von Menschen begeistert und in ihren Bann gezogen. Täglich in Kontakt mit seinen Freunden, Bekannten und Kollegen bleiben und sich über Neuigkeiten blitzschnell austauschen zu können ist das, was die Massen zu diesen Netzwerken bewegt. Sehr einfache und unkomplizierte Möglichkeit der Kommunikation [...]

weiterlesen

Netzneutralität – Infografik mit 15 Fakten

In den letzten beiden Wochen wurde wieder viel über die Netzneutralität diskutiert. Ursache für die erneute Diskussion waren die Gerüchte über Verhandlungen zwischen Google und Verizon, welche zum Ziel haben sollten, dass zukünftig die Datenpakete von Google vorrang vor denen anderer Anbieter haben. Dies wäre das Ende der Netzneutralität, welche einen Eckpfeiler des aktuellen Internets [...]

weiterlesen