Interessantes aus Technik, Gesundheit & Co

Themen aus vielen Bereichen

flag-german flag-german_du

Die Themen als Blog

  • Der Raspberry Pi als C64, NES oder Sega Mega Drive (hier)

Artikel zum Thema: Information



Neuer Linux-Desktop: Plasma 5 (Software)

Information
Plasma 5 ist der neueste Linux-Desktop des KDE-Projekts. 
Die grafische Oberfläche hat eine neue Technik unter der Haube und setzt jetzt auf OpenGL. Vorteil: Die Grafik-Hardware kann dadurch mehr Aufgaben vom Hauptprozessor übernehmen, was zu einer flüssigeren Darstellung führt. Doch die Technik im Unterbau fällt zuerst nicht auf, denn das neue Theme Breeze ist ein absoluter Hingucker. Wer sich selbst schnell einen Eindruck von Plasma 5 verschaffen will, kann sich eine spezielle Kubuntu-Version mit vorinstalliertem Plasma-Desktop holen. Die testet man aber am besten an einem eigenen Computer, in der VirtualBox zeigen sich die neuen Plasma-Effekte nicht.

Weniger Ablenkung für Nutzer
Plasma 5 verbessert die Unterstützung für hochauflösende Displays. Im Detail gibt es überarbeitete Launcher und Menüs. Die sollen mit dem neuen Design den Blick für das Wesentliche bieten. Wichtig ist auch die Überarbeitung bei Desktop-Mitteilungen. So soll es jetzt weniger Popups geben, stattdessen werden Meldungen für den Nutzer unauffällig gesammelt. Aktuell sind noch nicht alle Features des Vorgängers im neuen Kleid umgesetzt. Wer also möglichst viele Funktionen will, sollte mit dem Umstieg noch warten.

Bildserie1:



Mit Plasma 5 erneuern die KDE-Entwickler nun die Oberfläche der Desktop-Umgebung, nachdem sie mit Frameworks 5 und Qt 5 schon das Fundament gelegt hatten. Ein neuer Grafikstack verspricht dabei eine hardware-beschleunigte Anzeige der optischen Effekte.

Plasma 5.0 ist ein weiterer Schritt hin zu einem runderneuerten Desktop. Nach Frameworks 5 und Qt 5 packen die Entwickler nun den Desktop an, der mit dem neuen Artwork "Breeze" eine schlichtes, funktionale Optik erhalten hat. Die Elemente erinnern an die Oberfläche von Mobilgeräten. Wer vom bisherigen Desktop umsteigt, findet sich in der Regel schnell zurecht. Die neue Plasma-Shell böte jedoch die Möglichkeit, die Oberfläche sehr weitgehend anzupassen. Das soll künftig vor allem bei anderen Geräte, wie Tablets zum Tragen kommen.

Ein Video des KDE-Teams zeigt, welche Funktionen der Anwender schon jetzt von der Oberfläche erwarten darf. Dabei finden sich bekannte und bewährte Elemente, wie das Panel am unteren Rand des Desktops, das Startmenü sowie die Widgets wieder. Durch den neuen Grafikstack auf Basis von Open-GL-(ES)-Scenegraph passen sich die sparsamen Effekte flüssig in den Ablauf der Aktionen ein. Wer die Effekte aber richtig nutzen möchte, braucht aktuelle Hardware mit den entsprechenden Treibern.

Neben Verbesserungen zum Beispiel im Bereich der Nachrichtenleiste erhielt die Umgebung mit diesem Release, an dem die Entwickler rund zwei Jahre gearbeitet haben, unter anderem die Unterstützung für Bildschirme mit hoher Pixeldichte. Das erleichtert das Lesen von Text auf diesen Displays, ohne das die Schrift skaliert werden müsste.

Wer den neuen Desktop ausprobieren möchte, kann auf ein fertiges ISO-Image Neon 5 zurückzugreifen, die das KDE-nahe Unternehmen Blue Systems bereit stellt. Allerdings ist beim Betrieb in einem Live-System immer mit Einbußen bei der Performance zu rechnen. Auf einer Wiki-Seite versuchen die Entwickler zu dokumentieren, für welche Distributionen schon fertige Pakete vorliegen. Derzeit finden sich unter den Kandidaten Arch, Kubuntu und Open Suse. Entsprechende Anleitungen zum Einspielen der Pakete finden sich dort ebenfalls.

Die Kollegen von Golem haben sich den Desktop sehr genau angeschaut und dabei einige Ungereimtheiten festgestellt, die sich auf die Tatsache zurückführen ließen, dass es zum derzeitigen Zeitpunkt noch nicht alle Applikationen im neuen Gewand gibt. Die gute Nachricht für Anwender: Anwendungen aus KDE 4 lassen sich relativ problemlos in Plasma 5.0 starten.

Bildserie2:



Mit Plasma 5 erneuern die KDE-Entwickler nun die Oberfläche der Desktop-Umgebung, nachdem sie mit Frameworks 5 und Qt 5 schon das Fundament gelegt hatten. Ein neuer Grafikstack verspricht dabei eine hardware-beschleunigte Anzeige der optischen Effekte.

Quelle: Chip, Linux-Magazin

Kühlschränke der Zukunft sollen durch Magnete Energie sparen. (Technikwelt)

Information
Technik in Richtung Zukunft: Die neuen Kühlschränke der Zukunft, sollen durch Magnete viel Energie sparen.

Durch Ausnutzen des magnetokalorischen Effekts sollen geräuschlose Kühlschränke entwickelt werden, die weitaus weniger Energie und keine giftigen Chemikalien benötigen.

Gewisse Materialien verändern ihre Temperatur, wenn sie einem Magnetfeld ausgesetzt werden. Ferromagnetische Materialien etwa erwärmen sich, wenn sie magnetisiert werden und kühlen ab, wenn das Magnetfeld abgeschaltet wird. Mit einer Kühlflüssigkeit kann so eine Wärmepumpe konstruiert werden, die deutlich energieeffizienter funktioniert, als bei heutigen Kühlschränken. Das Prinzip ist schon lange bekannt, bislang haben aber verschiedene Probleme einen Einsatz im Alltag verhindert. In Wissenschaft und Industrie kommt der magnetokalorische Effekt bei der Kühlung auf extrem tiefe Temperaturen hingegen regelmäßig zum Einsatz, aber die benötigten Materialien sind oft selten und teuer. 

Kühlschrank der Zukunft

Die bekannten Verbindungen reagieren zudem oft zu langsam auf Änderungen des Magnetfelds und zeigen den nötigen Effekt nur bei tiefen Umgebungstemperaturen. Die Magnetfelder müssen zudem meist sehr stark sein, damit der Kühleffekt groß genug ist und die mechanische Energie, die nötig ist, um das Material in das Magnetfeld hinein und wieder heraus zu befördern, ist ebenfalls nicht zu vernachlässigen.

Zuletzt haben aber verschiedene Forschungsgruppen Fortschritte bei der Entwicklung alltagstauglicher Kühlaggregate erzielt. Ein Team des National Institute of Standards and Technology in Boulder, Colorado, hat eine Verbindung entdeckt, die bessere Eigenschaften aufweist, als bisher eingesetzte magnetische Materialien. Eine Mischung aus Gadolinium, Silizium und Germanium, die mit Spuren von Eisen versehen wird, eignet sich demnach hervorragend als Kühlelement, wie die FAZ berichtet. 

Allerdings sind die erforderlichen Magnetstärken mit fünf Tesla immer noch zu groß für einen Einsatz im Haushalt. Die Wissenschaftler arbeiten aber bereits daran, Materialien zu finden, die schon mit Feldstärken von ein bis zwei Tesla funktionieren. Diese ließen sich bereits mit Permanentmagneten realisieren.

Halbierter Verbrauch.

Eine andere Forschergruppe mit kanadisch-bulgarischer Beteiligung hat hingegen ein Material gefunden, das schon einen starken magnetokalorischen Effekt zeigt, wenn es lediglich in einem Magnetfeld gedreht wird - allerdings nur bei tiefen Temperaturen. Das könnte die Konstruktion von kompakten Kühlagregaten erlauben, die noch sparsamer sind, da das magnetische Material nicht in das Magnetfeld und wieder heraus geschoben werden, sondern lediglich in Rotation versetzt werden muss, wie eurekalert berichtet. Das Material, das die Forscher verwenden, besteht aus Holmium, Mangan und Sauerstoff. Die Wissenschaftler suchen jetzt nach Verbindungen, die ähnliche Eigenschaften schon bei Raumtemperatur aufweisen.

Erste Kühlschränke auf Magnetbasis könnten schon in wenigen Jahren in den Geschäften stehen. Unternehmen wie Whirlpool oder Toshiba arbeiten bereits an entsprechenden Prototypen, wie trendlink berichtet. Erste Tests versprechen eine Halbierung des Energieverbrauchs im Vergleich zu heutigen Geräten. Wenn die Forscher weiterhin bessere Materialien finden, könnte sich dieser Wert sogar noch verbessern.

Technik: Neue USB-Stecker schon 2014 ? (Technikwelt)

Information
Neue USB-Stecker sollen noch 2014 auf den Markt kommen, erste Prototypen TYP-C stehen in Planung.
Erste Produkte mit dem neuen USB-Stecker vom Typ C könnten noch heuer auf den Markt kommen. 
Die Arbeit am neuen Standard läuft auf Hochtouren.

USB3.1 TYP-C Kabel

Noch gibt es keine Prototypen von "Typ C"-Steckern. Der kommende Standard soll aber schon bald praktisch alle heutigen USB-Stecker ersetzen. Erste Geräte, die auf die neue Technik setzen, könnten noch heuer auf den Markt kommen, wie Golem berichtet. Laut USB Implementors Forum ist das Interesse am neuen Standard hoch. Viele Hersteller von Hardware, sowohl von Computern als auch von mobilen Geräten, sollen bereits an Prototypen arbeiten. Konkrete Produktankündigungen gibt es aber noch nicht. Die Spezifikationen des neuen Standards erhalten auch erst im Juni oder Juli den letzten Schliff.

Sowohl Stecker als auch Buchsen von Typ C werden kleiner sein und mehr Strom übertragen können. Zudem können die neuen Stecker in beiden möglichen Ausrichtungen mit Geräten verbunden werden. Die Verbindungen sollen zudem mit einem hörbaren Klickgeräusch einrasten. Nach der Einführung soll Typ C alle anderen USB-Typen ersetzen, außer bei Spezialanwendungen mit noch größerem Energiedurst. Die neuen Kabel sollen bis zu zehn Gigabit pro Sekunde übertragen können. Allerspätestens Anfang 2015 soll es erste Produkte mit Typ-C-Unterstützung geben.

Technik: Bell Labs stellen mit Kupferkabel Datenübertragungsrekord auf (Technikwelt)

Information
Die Bell Labs von Alcatel-Lucent haben es geschafft, zehn Gigabit pro Sekunde mit Kupferleitungen zu übertragen. Das ist neuer Rekord.

Den Forschern ist es gelungen, zehn GbpS mit normalen Telefon-Kupferleitungen zu erreichen. Dieser Spitzenwert kann allerdings maximal über 30 Meter gehalten werden. Über 70 Meter verringert sich die Geschwindigkeit schon auf ein GbpS. In der Praxis haben die Ergebnisse deshalb Relevanz, weil sie das Verlegen von teuren Glasfaserkabeln auf den letzten Metern in die Haushalte überflüssig machen könnten.

Kupferkabel

Den neuen Rekord haben die Wissenschaftler mit einem neuen DSL-Standard erreicht, der G.fast genannt wird. XG-FAST, eine Erweiterung dieses neuen Protokolls, macht die Spitzenwerte möglich. Schon 2015 soll G.fast auf den Markt kommen, allerdings mit einer garantierten Datenübertragungsrate von vergleichsweise geringen 500 Megabit pro Sekunde über Distanzen von bis zu 100 Meter.

Kein Kunde wird vergessen

Federico Guillén von Alcatel-Lucent erklärt: "Durch das Ermöglichen von '1-Gigabit symmetrischen Services' über Kupfer bietet Bell Labs der Telekommunikationsindustrie einen neuen Weg um abzusichern, dass kein Kunde vergessen wird, wenn es um Ultra-Breitband-Zugang geht."

Quelle User: Eskin

Technik der Zukunft: Neue Head-Up-Display-Technik (Technikwelt)

Information
Einfach nur starre Navigationshinweise im Blickfeld waren gestern. Mit Hilfe von Augmented Reality-Technik für das Head-Up-Display lässt Continental die virtuelle Welt mit der Wirklichkeit verschmelzen. 2017 könnte die Technik serienreif sein.

Wirklich oder virtuell? Wenn es nach den Entwicklern von Continental geht, werden Autofahrer das beim Blick aus dem Fenster künftig nicht mehr ganz so genau unterscheiden können. Denn gut zehn Jahre nach der Einführung des Head-Up-Displays (HUD) bereitet der Zulieferer jetzt die nächste Evolutionsstufe dieser Projektionstechnik vor und lässt dafür unter dem Schlagwort "Augmented Reality" (AR) die Grafiken förmlich mit der Umgebung verschmelzen: Wenn ab dem Jahr 2017 das so genannte AR-HUD reif für die Serie ist, werden die alle Informationen genau dort eingespiegelt, wo es für den Fahrer relevant ist. Abbiegehinweise schweben dann förmlich vor den entsprechenden Querstraßen oder weisen auf dem Asphalt unmissverständlich den richtigen Weg. Bei den Warnungen der Spurführungshilfe flammen direkt entlang der Fahrbahnmarkierung rote Katzenaugen auf. Und wenn die Abstandsregelung aktiv ist, markiert eine orange Sichel am Heck des Vordermanns das entsprechende Fahrzeug, an dem sich die Elektronik orientiert.

Head-up-Display

Möglich wird diese so genannte Augmentierung durch das enge Zusammenspiel einer neuartigen Projektionstechnik mit einer elektronischen Bildanalyse. Während wie bisher über einen TFT-Monitor die üblichen Statusdaten an den unteren Rand des Blickfelds gespiegelt werden, beamt ein weiterer Projektor mit hunderten von Spiegeln wie im Digitalkino das zweite Bild in die Scheibe. Das ist nicht nur deutlich größer (160 mal 30 statt 21 mal 4 Zentimeter) und schwebt in einer Entfernung von 7,50 statt nur 2,40 Metern über der Motorhaube. Vor allem ist es frei konfigurierbar und völlig variabel. So kann eine Kamera das Blickfeld auswerten, Referenzpunkte wie die Fahrbahnmarkierung, die Querstraße oder das vorausfahrende Fahrzeug erkennen und die Grafiken an die entsprechende Stelle projizieren. Und weil es keine starre Projektion ist, passt sich der Bildverlauf bei jeder Kuppe oder Kurve neu an, so dass die Grafik wie ein Magnet am jeweiligen Objekt haftet.

Auch wenn das AR-HUD in den Forschungsfahrzeugen bereits fast reibungslos funktioniert, hat Continental bis zur Serienreife noch einiges zu tun, räumen die Entwickler ein. Denn zum einen brauchen die zwei Projektionseinheiten mit ihren zusammen 14 Litern noch mindestens 20 Prozent zu viel Bauraum in einem Bereich des Fahrzeugs, in dem um jeden Kubikzentimeter gerungen wird. Und zum anderen ist das System aktuell schlicht noch zu teuer. Doch selbst wenn die Ingenieure den Preis noch drücken können, machen sie der breiten Masse wenig Hoffnung: Fürs erste werde das AR-HUD wohl ein Thema für gut ausgestattete Dienstwagen der gehobenen Preiskategorie bleiben.

Aber erstens gibt es für Normalverdiener auch bei Continental bald eine so genannte Combiner-Lösung mit einer ausklappbaren Projektionsscheibe wie im Peugeot 3008 oder im neuen Mini, die weniger kostet und obendrein nicht so viel Patz braucht. Und zweitens sind die Entwickler davon überzeugt, dass der AR-Technologie die Zukunft gehört und die Systeme deshalb mittelfristig über eine größere Verbreitung auch günstiger werden. Denn glaubt man Bereichsvorstand Helmut Matschi, braucht es Systeme wie dieses, damit der Fahrer überhaupt noch den Überblick behält: "In einer ständig komplexer werdenden Welt entlastet das AR-HUD den Fahrer mit einer neuen Informationsqualität", sagt Continental-Vorstand Helmut Matschi: " So bekommt der Fahrer alle wichtigen Informationen leicht erfassbar vor Augen geführt. Dies ist ein wichtiger Schritt gegen Fahrerablenkung und Reizüberflutung." Selbst wenn man dafür auf der Motorhaube eine Kinoprojektion laufen lässt.

Quelle: Welt.de

Die Erdwärme - Eine Quelle der Energie (Wissen)

Information
Die Erdwärme - Eine Quelle der Energie.
99 Prozent der Erde sind heißer als 1000 Grad. Direkt unter unseren Füßen schlummert ein gewaltiges, nahezu unerschöpfliches Energiepotential. Die Erdwärme, auch Geothermie genannt, kann man nutzen, um Gebäuden zu heizen, Nahwärmenetze zu speisen und sogar um Strom zu erzeugen. Doch bisher spielte Erdwärme als Energiequelle bei uns kaum eine Rolle. Zu schwierig erschienen die Förderbedingungen, zu unwirtschaftlich die Stromproduktion. Dank neuer Technologien wandelt sich langsam das Bild.

Vorbild Island
Welche Bedeutung Erdwärme für die Energieversorgung in Zukunft haben könnte, zeigt uns heute schon Island. 37 aktive Vulkane heizen den Untergrund des Inselstaates auf. Heiße Quellen, Geysire und Wasserdampfspalten sind sichtbare Zeichen des geothermischen Potentials. Nur wenige hundert Meter unter der Erdoberfläche herrschen in wasserführenden Gesteinsschichten bis zu 350 Grad. Und über natürlich austretenden oder aus Bohrlöchern geförderten Wasserdampf werden bereits 90 Prozent aller Haushalte mit Wärme versorgt.

Gleichzeitig treibt überschüssiger Heißdampf Turbinen in einem Geothermiekraftwerk an und erzeugt Strom. Soviel, dass auch Wasserstoff, ein möglicher Energieträger der Zukunft, produziert werden kann. Treibhausgase wie CO2, die beim Einsatz fossiler Brennstoffe entstehen, sind in Island kein Problem. Natürlich sind die Vorrausetzungen für die Erdwärmenutzung in Island dank der vielen Vulkane einzigartig. Aber auch in Mitteleuropa könnte das Potential erschlossen werden.

Labsal aus dem Untergrund
Zumindest passiv nutzten schon die alten Gallier, Kelten und Germanen Erdwärme – in Thermalquellen, ein Labsal für Körper und Geist in den eisigen Wintern unserer Vorzeit. Auch die alten Römern kannten die Wärmequelle aus dem Untergrund. Sie konstruierten schon vor 2000 Jahren die sogenannten Thermen. Thermalbäder findet man auch heute noch in zahlreichen Kurorten, die vom kostenlosen Angebot der Erde profitieren.

Das älteste Erdwärmekraftwerk der Welt
Im Italien der Neuzeit begann die Geschichte der aktiven oder kommerziellen Nutzung der Erdwärme. Unter Italien treffen die afrikanische und die eurasische Kontinentalplatte aufeinander. In der Toskana führt das zwar nicht zu Vulkanausbrüchen, aber Magma heizt dort oberflächennahe, unterirdische Wasserreservoire auf. An mehreren Stellen bahnt sich heißer Wasserdampf schon seit Jahrtausenden seinen Weg an die Erdoberfläche. Den nutzte 1913 Graf Piero Ginori Conti in Larderello für das erste Erdwärmekraftwerk der Welt. Wasserdampf trieb Turbinen an und diese erzeugten Strom.

Erdwärmenutzung in Deutschland

Erdwärme

Heißwasserreservoire direkt unter der Erdoberfläche sind in unseren Breitengraden selten. Erdwärmenutzung schien daher bisher in Deutschland auf wenige Orte beschränkt zu sein. In Bayern bauen zum Beispiel Erding, Straubing oder Unterhaching schon auf Erdwärme. Auch in Mecklenburg-Vorpommern wird Erdwärme vorwiegend zum Heizen verwendet. Die Stromerzeugung aber wird erst rentabel, wenn sehr große und mehrere hundert Grad heiße Wasserdampfvorkommen zur Verfügung stehen. Viele Gebiete in Deutschland verfügen aber erst in mehreren Tausend Metern Tiefe über größere, ergiebige Heißwasservorkommen. Bohrungen in solche Bereiche sind teuer und wenn kein Fernwärmenetz zur Nutzung der Quellen vorhanden ist, ist selbst die Wärmenutzung für Kommunen nicht reizvoll.

Erdwärme kann aber auch unabhängig von natürlichen Heißwasservorkommen genutzt werden, zum Beispiel mit dem "Hot-Dry-Rock-Verfahren" (HDR). Dabei bohrt man in Tiefen von 4000 bis 5000 Metern. Dort liegen die Gesteinstemperaturen je nach Standort schon bei 200 bis 300 Grad Celsius. Wenn man jetzt über ein Bohrloch Wasser in den Untergrund treibt, kann es sich dort aufheizen und über ein zweites Bohrloch als heißer Wasserdampf wieder nach oben befördert werden. So entsteht ein Kreislaufsystem, an das an der Oberfläche Erdwärmekraftwerke angeschlossen werden könnten. Die heißen Gesteinsschichten im Erdinneren werden also praktisch als Durchlauferhitzer verwendet.

Vorteil: Mit dem HDR-Verfahren wird man unabhängig von natürlichen, unterirdischen Heißwasservorkommen und könnte überall Erdwärme fördern. Mit entsprechenden Wärmetauscher-Technologien ließe sich auch schon mit 100 bis 150 Grad heißem Wasserdampf kostengünstig Strom produzieren.

Potential für die Zukunft?
Im Jahr 2012 gibt es in Deutschland sechs Heizkraftwerke zur kombinierten Strom- und Wärmeerzeugung und 21 Heizwerke, die Wärmenetze versorgen. Nach den ersten positiven Erfahrungen mit dem HDR-Verfahren und neuen Wärmetauschertechnologien kommen weitere Gebiete in Deutschland für die Nutzung der tiefen Erdwärme in Frage. Im Mai 2009 hieß es in einem Bericht der Bundesregierung zur Geothermie: "Bis zum Jahr 2020 sollen etwa 280 Megawatt Leistung zur geothermischen Stromerzeugung installiert sein, das Vierzigfache der gegenwärtig installierten Leistung. Bei einer Leistung von etwa 5 Megawatt pro Kraftwerk entsprich dies mehr als 50 Kraftwerken."

Unstrittig ist, dass Erdwärme ein großes Energiepotential ist. Experten schätzen, dass allein der täglich aus dem Erdinneren aufsteigende Wärmestrom, der durch die Erdoberfläche in die Atmosphäre gelangt und ungenutzt in den Weltraum abgestrahlt wird, den weltweiten Energiebedarf um das 2,5-fache übertrifft. Erwärme produziert keine Abfallstoffe wie CO2 und ist, anders als etwa Sonnenenergie, unabhängig von Tages- und Nachtzeiten, von Klima- oder Wettereinflüssen.

Quelle: Planet-Wissen // Eskin

Wie intelligent ist Künstliche Intelligenz? (Wissen)

Information
Die Künstliche Intelligenz
Philadelphia 1997: Der Computer "Deep Blue" schlägt den amtierenden Schach-Weltmeister Garri Kasparow beim Schachspielen. Ein tonnenschweres Ungetüm mit 256 parallel geschalteten Computerprozessoren triumphiert über den menschlichen Geist. Science Fiction wird zur Realität – zumindest auf dem Schachbrett. Doch an der Aufgabe, die vielschichtige menschliche Intelligenz nachzubauen, beißt sich die Wissenschaft nach wie vor die Zähne aus.

Wie intelligent ist Künstliche Intelligenz?
Das Forschungsgebiet "Künstliche Intelligenz" (KI) versucht, menschliche Wahrnehmung und menschliches Handeln durch Maschinen nachzubilden. Was einmal als Wissenschaft der Computer-Programmierung begann, hat sich mehr und mehr zur Erforschung des menschlichen Denkens entwickelt. Denn nach Jahrzehnten der Forschung hat man die Unmöglichkeit erkannt, eine "denkende" Maschine zu erschaffen, ohne zuvor das menschliche Denken selbst erforscht und verstanden zu haben. Deshalb gibt es zum Teil große Überschneidungen zwischen KI-Forschung und Neurologie beziehungsweise Psychologie.

Bis heute ist es nicht einmal annähernd gelungen, menschliche Verstandesleistungen als Ganzes mit Maschinen nachzuvollziehen. Ein großes Hindernis ist die Sprachverarbeitung. Auch die Durchführung einfachster Befehle ist für eine Maschine ein hoch komplexer Vorgang. Inzwischen konzentriert sich die Forschung deshalb mehr und mehr auf einzelne Teilbereiche, unter anderem mit dem Ziel, dort Arbeitserleichterungen zu schaffen. Dazu ist ein ständiger Austausch zwischen Wissenschaftlern verschiedenster Disziplinen (Kognitionswissenschaft, Psychologie, Neurologie, Philosophie und Sprachwissenschaft) notwendig.

Wann besteht ein Computer den Turing-Test?
Die Frage, ab wann eine Maschine als intelligent gilt, treibt die KI-Forschung seit Jahrzehnten um. Ein Messwerkzeug, das allgemein akzeptiert wird, ist der sogenannte Turing-Test. Er wurde 1950 von dem britischen Mathematiker Alan Turing entwickelt: Ein Mensch kommuniziert über längere Zeit parallel mit einem anderen Menschen und einer Maschine ohne Sicht- oder Hörkontakt – etwa über ein Chat-Programm. Mensch und Maschine versuchen den Tester davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Tester nach der Unterhaltung nicht mit Bestimmtheit sagen kann, welcher der Gesprächspartner ein Mensch und welcher eine Maschine ist, hat die Maschine den Test bestanden und darf als intelligent gelten.

Der US-Soziologe Hugh G. Loebner lobte 1991 einen Preis von 100.000 Dollar für das Computerprogramm aus, das den Turing-Test besteht und eine Expertenjury hinters Licht führt. Bis 2013 hat niemand den Preis erhalten, und der Großteil der KI-Forscher geht davon aus, dass das auch in absehbarer Zeit nicht passieren wird.

Computerpionier Alan Turing
Computerpionier Alan Turing

Tamagotchis, Roboter & Co
Die Einsatzgebiete Künstlicher Intelligenz sind äußerst vielfältig. Oft sind sie uns nicht einmal bewusst. Am erfolgreichsten ist ihr Einsatz in kleinen Teilbereichen, wie zum Beispiel in der Medizin: Roboter führen bestimmte Operationsabschnitte – etwa im Tausendstel-Millimeter-Bereich – wesentlich präziser durch als ein Chirurg.

In Produktionsstraßen, besonders in der Automobilindustrie, ersetzen Roboter eine Unzahl menschlicher Handgriffe. Vor allem bei gesundheitsschädlichen, unfallträchtigen Aufgaben, wie zum Beispiel beim Lackieren oder Schweißen, sind Roboterarme, wie sie bereits in den 1960er Jahren bei General Motors eingesetzt wurden, nicht mehr wegzudenken.

Klassischer Anwendungsbereich für Künstliche Intelligenz sind Spiele, insbesondere Brettspiele wie Dame und Schach. Längst haben programmierbare und lernfähige Spielzeuge, Mini-Roboter und Computerprogramme das Kinderzimmer erobert. Das legendäre Tamagotchi gehört zwar schon zum alten Eisen, dafür drängen andere künstliche Gefährten wie der Roboter-Hund AIBO auf den Markt. Der Blech-Waldi kann Videos aufnehmen, führt ein eigenes Tagebuch und spielt auf Wunsch CDs, wenn man ihm das jeweilige Cover vor die Schnauze hält.

Roboter_Autoindustrie

Expertensysteme und Fuzzy-Logik
Expertensysteme sind spezialisiert auf ganz bestimmte und eng begrenzte Einsatzgebiete. Ein Beispiel dafür sind Programme, mit denen computertomografische Aufnahmen am Computerbildschirm in dreidimensionale Bilder umgesetzt werden. Ärzte können sich so im wahrsten Sinne des Wortes ein "Bild" von der jeweiligen Körperpartie und ihrem Zustand machen.

Als Fuzzy-Logik bezeichnet man "unscharfe" Logik, was bedeutet, dass nicht nur binäre Werte, also "ja" oder "nein", sondern auch analoge Zwischenstufen wie "vielleicht" oder "jein" verarbeitet werden können. Der deutsche Ingenieur und Industrielle Konrad Zuse musste seinen ersten Computer, der teilweise analog arbeitete, noch künstlich auf binäre Funktionen "trimmen". Heute zeigt die Entwicklung, dass eben nicht immer klare Entscheidungen wie "ja" und "nein" beziehungsweise "0" und "1" möglich sind.

Automatisch in den Weltraum
1997 reisten Maschinen im Dienste des Menschen auf den Planeten Mars. Ziel der "Pathfinder-Mission" war es, wissenschaftliches Messgerät auf die Marsoberfläche zu bringen. Dabei sollten geeignete Techniken für Flugphase, Atmosphäreneintritt, Abstieg und Landung entwickelt und erprobt werden. Es musste alles möglichst automatisch funktionieren, da menschliche Eingriffe von der Erde aus wegen der Distanz kaum möglich sind. Ein Funksignal zur Erde würde, selbst wenn es mit Lichtgeschwindigkeit unterwegs wäre, 14 Minuten benötigen.

Der Rote Planet

Doch die "Pathfinder-Mission" glückte und legte so den Grundstein für weitere Marsmissionen. Im August 2012 landete das Fahrzeug "Curiosity" auf dem Mars: 900 Kilogramm schwer und mit einer Vielzahl an Instrumenten ausgestattet, um zu erkunden, inwieweit der Planet als Biosphäre geeignet ist oder war. Schon die Landung war spektakulär: Nach dem Eintritt in die Atmosphäre bremste die Sonde automatisch 20 Meter über der Oberfläche ab und ließ "Curiosity" an Seilen herab. Auf dem Mars bewegt sich "Curiosity" mit einem Plutoniumantrieb fort, zertrümmert und analysiert Steine mit einem Laser und packt Gesteinsproben per Greifarm in eine Mikrowelle, um diese zu schmelzen. Fast zwei Jahre lang soll "Curiosity" unterwegs sein und seine Erkenntnisse zur Erde funken.

20 Meter über der Oberfläche ab und ließ "Curiosity" an Seilen herab. Auf dem Mars bewegt sich "Curiosity" mit einem Plutoniumantrieb fort, zertrümmert und analysiert Steine mit einem Laser und packt Gesteinsproben per Greifarm in eine Mikrowelle, um diese zu schmelzen. Fast zwei Jahre lang soll "Curiosity" unterwegs sein und seine Erkenntnisse zur Erde funken.

Der Gläserne Mensch: Big Data: Das Netz der Daten (Medien)

Information
Big Data: Das Netz der Daten
Ob wir telefonieren, E-Mails lesen, beim Einkaufen eine Kundenkarte zücken oder online nach einem Partner suchen - überall produzieren wir Daten, Unmengen von Daten. Die können analysiert und dank spezieller Software und Algorithmen ausgewertet werden. Das Besondere an Big Data ist, dass nicht nur die Gegenwart erfasst wird. Es lassen sich auch Voraussagen über die Zukunft treffen.

Daten gelten als Rohstoff der Zukunft
Droht ein Unwetter? Wo breitet sich Malaria aus, welche Symptome deuten darauf hin, dass es einem zu früh geborenen Kind bald schlechter gehen wird? Wie entwickelt sich der Wert eines Unternehmens? Daten können helfen, Frühwarnsysteme zu erstellen oder Prozesse zu verstehen und effizienter zu machen.

Geheimdienste, Banken, Telekommunikationsdienste, Firmen und Forschung, Versicherungen und Wirtschaftsauskunfteien: Sie alle erhoffen sich viel von Big Data, dem Rohstoff der Zukunft. Je detaillierter ein Konzern seine Kunden kennt, desto persönlicher lassen sich Kaufanreize setzen und Werbung schalten - oder neue Dienstleistungen entwickeln. Unternehmen wissen schon jetzt mehr, als vielen Menschen lieb ist. Eine US-amerikanische Handelskette ermittelte zum Beispiel, welche Kundinnen wahrscheinlich schwanger sind und bewarb diese gezielt. Wer will aber schon durch einen Supermarkt von seiner Schwangerschaft erfahren?

Die Digitalisierung ermöglicht die Analyse von Datenmassen
Big Data ist relativ neu: Erst die fortschreitende Digitalisierung macht es möglich, Daten massenhaft zu erheben, zu speichern und miteinander zu verknüpfen. Das zeigt allein die Menge an Informationen, die inzwischen weltweit auf Servern gespeichert werden: Über 90 Prozent des Datenbestandes wurden allein in den vergangenen zwei Jahren erhoben. Experten schätzen, dass derzeit alle zehn Minuten ein Datenberg von fünf Milliarden Gigabyte hinzukommt. Wie sich die Datenmenge entwickelt hat, veranschaulicht diese Infografik von ARTE future.

Viele Unternehmen und Behörden ertrinken regelrecht in einer Flut von Daten. Sie sind oft noch nicht in der Lage, sie auszuwerten oder zu nutzen, noch wird viel experimentiert. Doch das dürfte sich bald ändern.

Datenschutz

Es entstehen "gläserne Menschen"
Wo Menschen sich bewegen, wen sie treffen, was sie gerne essen und wer ihnen nahesteht - all das lässt sich heute so einfach erfassen wie nie zuvor. Das macht verletzlich, es entstehen "gläserne Menschen". Dank der Enthüllungen des ehemaligen Geheimdienstmitarbeiters Edward Snowden wurde bekannt, welche Massen an Telekommunikationsdaten alleine der US-Geheimdienst NSA weltweit speichert und ausliest. Daten zu besitzen, bedeutet Macht.

Das Brisante an Big Data: Die meisten Daten lassen sich Personen zuordnen – selbst wenn ein Datensatz anonymisiert wurde. Oft genügen wenige Angaben wie Alter, Geschlecht und die Postleitzahl – oder eine medizinische Diagnose, der behandelnde Arzt und der Wohnort. Durch eine Gerätekennung in Smartphones, Cookies und IP-Adressen wissen Geheimdienste und Unternehmen sehr genau, wen sie vor sich haben.

Ein anderes Problem ist, dass die mithilfe vieler Daten getroffenen Prognosen für die Zukunft nicht stimmen müssen. Beispielsweise wird anhand von menschlichem Verhalten oder Kategorien wie Herkunft und Religion ermittelt, welche Person möglicherweise in Zukunft ein Verbrechen begehen wird. Das klingt nach Science Fiction, ist aber schon heute Realität. Mit der Hilfe von Datenbanken und diversen Quellen entscheiden Staaten, wer ins Land einreisen darf - und wer draußen bleiben muss.

Je mehr Daten, umso eher ist Missbrauch möglich
Datenschützer warnen daher eindringlich vor Missbrauch der Daten und Kontrollverlust. "Wenn viele Daten von uns gespeichert werden, macht uns das manipulierbar und erpressbar", sagt padeluun vom Datenschutz-Verein Digitalcourage. Außerdem könnten Daten, die erhoben wurden, immer missbraucht oder gehackt werden: "Nur Daten, die nicht erhoben wurden, sind sicher", betont padeluun.

Auch die Transparenz, die dank Big Data entstehen soll, ist einseitig. Für den, der die Daten erhebt, wird vieles sichtbar. Die Menschen, deren Daten gesammelt werden, fragt aber kaum jemand um Erlaubnis. Oft erfahren sie nichts davon.

1257 Artikel (158 Seiten, 8 Artikel pro Seite)

Top 10 Downloads

Weitere Themen

Promotion

DSL über Satellit, Satelliten-DSL, überall und sofort verfügbar, beste DSL Verfügbarkeit

Newsletter

E-Mail Adresse

Bitte wählen

Newsletter Format wählen

Login

Sponsoren

Username

Passwort

Bitte nutzen Sie Ihre Zugangsdaten für den Login!