Tumgik
#frau schrödingers katze
elisacifuentes · 2 years
Photo
Tumblr media Tumblr media Tumblr media
Polizeiruf 110: Frau Schrödingers Katze (2021)
4 notes · View notes
dermontag · 2 years
Text
Tumblr media
"Polizeiruf 110" aus München Bessie - dringend gesucht Von Ingo Scheel 15.05.2022, 21:42 Uhr Fünf Fälle hat Kriminaloberkommissarin Elisabeth Eyckhoff (Verena Altenberger) bisher gelöst, die Nachfolge von Matthias Brandt alias Hanns von Meuffels überzeugend geschultert. So langsam jedoch könnte die Figur der Bessie mal ein paar Konturen vertragen. Gut dreieinhalb Jahre ist der Start jetzt her. Mit "Der Ort, an dem die Wolken wohnen" hatte Verena Altenberger in der Rolle der Elisabeth Eyckhoff, genannt Bessie, die nicht ganz einfache Nachfolge der Lichtgestalt Hanns von Meuffels (Matthias Brandt) angetreten und sie mit Bravour geschultert. "Streifenhörnchen mit Tiefgang", so hatten wir an dieser Stelle getitelt, 9 von 10 Punkten gegeben, eine "bravouröse Premiere" attestiert, in Verbindung mit einem "bitte weiter auf diesem Qualitätslevel". Mit "Die Lügen, die wir Zukunft nennen" wurde mutig fortgesetzt, eine Hommage an den 70er-Klassiker "Zabriskie Point", mit 8 von 10 Punkten wurde dieser "abgedrehte Trip" für "Experimentierfreudige und Cineasten" bewertet. "A bisserl mehr Tempo könnt' er haben, der "Polizeiruf" aus Minga, ansonsten aber passd's scho", lautete das Fazit im letzten Jahr über die Vier-Pfoten-Schnurre "Frau Schrödingers Katze", auch mit "Bessie und der alte Sack" wurde das Level gehalten, 9 von 10 Punkten, so unsere Einschätzung. Und nun? Tja, das ist eine gute Frage. Mit "Das Licht, das die Toten sehen", was immer dieser Titel auch bedeuten mag, verliert sich zwischenzeitlich das Momentum rund um die Persona Eyckhoff. Von ihrer besonderen Empathie war schon im ersten Fall die Rede, auch diesmal ist es vor allem ihrer Anteilnahme, der unvoreingenommenen Aufmerksamkeit gegenüber den Menschen geschuldet, dass der Fall um die getöteten Teenager-Mädchen nach und nach enträtselt wird. Lange Gespräche, Stille zulassen, Wärme ausstrahlen, alles unbestreitbare Qualitäten im Portfolio der guten Bessie. Fragen über Fragen Mehr zum Thema Nur: Was macht die eigentlich sonst so? Gibt es eine Katze oder einen Hund? Mag sie Rotwein oder lieber einen Weißen? Was für Bilder hängen in ihrer Bude, steht da ein Plattenspieler herum, ein Fernseher, räkelt sich vielleicht ein Lover oder eine Geliebte in den Laken? So famos Verena Altenberger der Kommissarin Eyckhoff eine so menschliche Gestalt geben mag, mehr als eben diese vielbeschworene Empathie und ein offenes Ohr stehen da, grob gesagt, nicht zu Buche. Gab es nicht mal einen Halbbruder in der ersten Folge? Wo ist der denn wohl abgeblieben? Hat sie eine beste Freundin, was machen ihre Eltern und wo, verdammt nochmal, isst sie eigentlich ihre Currywurst? Oder ist sie doch vegan unterwegs? Fragen über Fragen. Zumindest wissen wir, dass sie gern mal ein schnelles Bier trinkt, oder zwei. Viel mehr geben Sebastian Brauneis und Roderick Warich, die für das Drehbuch von "Das Licht, das die Toten sehen", nicht preis, scheinen kaum an Bessies Background interessiert, reduzieren sie vielmehr zu einer Art dramaturgischer Schablone. Überhaupt sind die Figuren des Falles symbolhaft, ja, schemengleich angelegt. Die Mutter (Anna Grisebach) als Tankstellen-Trinkerin, Stefanie (Zoë Valks) und Patrick (Aniol Kirberg) in ihrer Messie-Bude, Dennis Eden als knuffig-kauziger Kollege, mehr Abziehbilder ihrer selbst, als tatsächliche Protagonisten. Auch diese Handy-Jonglage, die Eyckhoff schließlich auf die Lösung des Falles bringt, wirkt konstruiert, in einer überlangen Montage zum Logik-Coup hochgejazzt. Sei es drum, nach vier tollen Fällen ist ein Knick in der Kurve zu verkraften, womöglich geht es mit dem nächsten Einsatz schon wieder bergauf, findet sich im (fiktiven) Leben der guten Bessie doch noch das eine oder andere erzählenswerte Detail. Schön wär's.
0 notes
herzlak · 3 years
Text
couldn't resist...
instagram
3 notes · View notes
petergengnagel · 2 years
Photo
Tumblr media
"Schrödingers Katze und das Gegenteil" Hallo liebe Leute, ab heute ist mein kreatives Buch neu veröffentlicht und zum Verkauf freigegeben. Falls Ihr euer Leben ändern wollt, das ist der Schlüssel dazu. Schaut Mal gerne rein... . . . . . #lebenändern #leben #frau #mann #gewichtsabnahme #liebe #deutschland #men #abnehmen #love #gesundessen #woman #germany #gesundabnehmen #motivation #model #abnehmtagebuch #life #hamburg #male #gewichtverlieren #mensfashion #instagood #girls #gesundheit #portrait #junge #spaß #glücklich https://www.instagram.com/p/CZZqz-PoVqC/?utm_medium=tumblr
0 notes
vornelinksbitte · 3 years
Text
#56 Gefunden auf der Straße: Einen Belgier und eine Eule
Zu dritt/viert von Shengjin Richtung Durres
29. August 2020
Gefahrene Kilometer: 4293
Mittlerweile ist es Samstag, der 4. September, als wir die folgenden Texte schrieben. Wir sind in unserer AirBnB Unterkunft in Sarande, im Süden Albaniens, angekommen. Die letzten Tage waren sehr anspruchsvoll für uns. Die fremde Kultur, die Hitze und die Berge im Süden des Landes haben uns ganz schön zugesetzt. Es fehlte die Zeit, einfach mal inne zu halten und die Eindrücke sacken zu lassen. Das Land ist super interessant und ich würde am liebsten jedes kleine Detail festhalten. Das würde aber wahrscheinlich den Rahmen auf Tumblr sprengen, aber mal sehen. Wir genießen gerade die Wohnung mit Balkon und der Waschmaschine sehr. Der Sandwichmaker, das einzige Küchengerät in der Wohnung, läuft die ganze Zeit auf Hochtouren. Ich hoffe, wir kriegen das hin, das Land mit seinen Eindrücken einigermaßen festhalten zu können.
Tumblr media
Zurück zum Tagebuch:
Sonntag, 29. August, Hippibar in Shengjin. Das Gewitter war vorbei. Am Morgen fielen die letzten Regentropfen und von da an strahlte wieder unentwegt die Sonne auf uns herab. Die Reise konnte nun wieder, wie gewohnt, weitergehen. – Eine Stadt, eine Sehenswürdigkeit oder einen See auf der Karte heraussuchen, überlegen, wie wir eventuelle nervige Straßen oder Berge umgehen können, Roadbook schreiben und Sachen packen. Wir verabschiedeten uns in der Strandbar von den vielen, lieben Leute und fuhren danach los.
Tumblr media
An diesem Tag wollten wir definitiv keine Rekorde brechen. Wir wollten legidlich raus aus Shengjin und zumindest Kurs auf die Stadt Durres nehmen. Die lag aber bestimmt noch 70 km entfernt und es war bereits Nachmittag. Wir fuhren zunächst an einer relativ breiten Bundesstraße entlang. Kari voraus. Lucas bermerkte nach kurzer Zeit, dass uns ein weiterer Radreisender eingeholt hatte. Ohne sich groß bemerkbar zu machen, schloss sich, Justin, so heißt der Kollege, heimlich unserer Kolonne an. Wir hielten wir vor einem Supermarkt und hatten so die Gelegenheit, uns etwas zu unterhalten. Fast wie selbstverständlich war er nun Teil der Gruppe. Er erzählte, dass er seit 2 Monaten unterwegs wäre und von Belgien nach Athen radeln wollte. Gerade wolle er nach Durres, um dort andere Radreisende wiederzutreffen, die er bereits auf seiner Route kennengelernt hatte. Er wirkte unglaublich entspannt und freute sich über ein bisschen Gesellschaft. Da wir alle drei zur selben Stadt wollten, beschließen wir kurzerhand gemeinsam zu radeln.
Tumblr media
Wie im Entenmarsch folgte der eine dem anderen. Nach kurzer Zeit verließen wir wieder die Bundesstraße und wichen auf kleinere Nebenstraßen aus. Es wurde schlagartig ruhiger und die Luft um ein vielfaches sauberer. Auf der Straße spielten Kinder miteinander. Als sie uns erblickten, riefen sie uns laut einige Grußworte zu. Für eine kurze Zeit wurde wir von radelnden Kindern umgeben und sie schlossen sich unserem Trupp für wenige Meter an. Deren Räder schienen viel zu groß für sie gewesen zu sein. Sie konnten kaum auf den Sätteln sitzen, wenn sie gleichzeitig versuchten die Pedale mit ihren Füßen zu erreichen. Davon ließen sie sich aber nicht nehmen, uns trotzdem mit lauten Brummgeräuschen zu überholen.
Der Norden Albaniens wirkte auf uns eher flach, zumindest waren es die Straßen, die wir befuhren. Um uns heurm ragten allerdings immer wieder relativ hohe Berge in den Himmel. Wie große natürliche Pyramiden standen sie in der Gegend herum, als hätte sie jemand künstlich, wie in einer Miniaturwelt, dort hingesetzt. Lucas meinte, sie würden riesigen Ameisenhaufen ähneln.
Tumblr media Tumblr media
Die Dörfer, die wir durchfuhren, waren meist sehr belebt. Überall lag eine dünne Schicht aus Staub und in den Ecken lag Müll herum. Die Menschen, vorrangig Männer, tummelten sich auf den Straßen, saßen in den Cafes oder wuschen ihre Autos in einer der unzähligen “Lavazh” (So heißen die Autowaschanlagen). Frauen sah man selten.
Wir glauben aber nicht, dass die Stellung der Frau in der albanischen Öffentlichkeit ausschließlich etwas mit der Religion zu tun hat. Denn, nur knapp über die Hälfte der Bevölkerung bezeichnen sich als Moslems/Muslima. Es ist nichts ungewöhnliches, dass in Städten Kirchen direkt neben Moscheen stehen. Das konnte wir bereits am ersten Tag in der Stadt Shkodra beobachten. Wir glauben, dass es unter Umständen etwas mit ihrem Volkshelden “Skanderbeg” zu tun haben könnte, da auch dieser aus diplomatischen Gründen während seines Lebens immer wieder sich unterschliedlichen Glaubensrichtungen bekannte. Durch die Sprachbarriere konnten wir uns aber bisher noch nicht wirklich mit den Albaner austauschen, so dass das bisher nur Mutmaßungen sind.
Was uns auch außerdem aufgefallen ist, sind die unfassbar vielen unfertigen Gebäude. Ganz Albanien wirkt wie eine einzige Baustelle. Oft schien es, als würde so schnell an diesen auch nicht weiter gebaut werden. Immer wieder sahen wir, dass bei manchen Häusern das Erdgeschoss nur aus nackten Betonträgern bestand. Das erste Stockwerk war allerdings schon fertiggetellt und manchmal auch schon verputzt und mit Farbe bestrichen. Es sah aus, wie ein Haus auf Stelzen. Justin erzählte uns, dass er gehört habe, dass ein Haus als unfertig gilt, wenn das erste Stockwerk keine Wände besitzt. Auf diese Weise könne man Steuern sparen und die laufenden Kosten senken. Zumindest, meinte Justin, sei das in Griechenland Gang und Gäbe. Wir wissen nicht, wie hoch diese Steuern sind, aber wir sahen diese Art von Häusern immer wieder, weshalb es sich für die Menschen zu lohnen scheint.
Tumblr media
Ungefähr so, nur, dass der erste Stock aussah, wie eine fertige Wohnung. Jaja, hätten wir sie doch einfach abfotografiert... Das hier ist übrigens ein Café gewesen. Unter dem Pavillon standen Tische.
Zurück zur Route von Shengjin nach Durres. Da radelten wir also von Dorf zu Dorf. Plötzlich hielt Lucas inne und bemerkte ein Rascheln im Busch. Er vermutete ein verirrtes Huhn, dass sich im dichten Gebüsch verhäddert hatte. Er blieb stehen und wollte dieses aus seiner misslichen Lage befreien. Zu unserem Erstaunen blickten uns, nachdem wir die Äste etwas zur Seite schoben, gelb leuchtende, groß aufgerissene, Augen an. Das war kein Huhn, es war eine kleine Eule! Lucas war absolut begeistert. Zugegeben, das Tier war auch unglaublich niedlich. Leider aber auch absolut hilflos. Lucas zupfte vorssichtig die vielen kleinen Äste aus dem Gefieder. Es sah wirklich sehr zerstrubbelt aus.
Wir versuchten den Vogel auf einen Ast zu setzen. Es klappte nicht. Wir versuchten dem Tier etwas Wasser zu geben. Es klappte nicht. Wir versuchten es auf den Boden zu setzen. Fehlanzeige. Mit jeder Minute verliebte sich Lucas mehr in das Tier. Nur leider hatten wir keine Ahunng, wie man eine Babyeule aufpeppeln könnte. Nach einem kurzen hin und her beschlossen wir das Tier bis zu nächsten Stadt mitzunehmen. Vielleicht würden wir einen Tierarzt finden können. Leider hatten wir kein Glück. Die Leute dort erklärten uns auf italienisch, dass der nächste Tierarzt sich erst in der 50 km entfernten Hauptstadt Tirana befinden würde. Also nicht die besten Aussichten für unseren kleinen Freund. Unverrichteter Dinge fuhren wir also weiter und bogen zurück auf die Bundesstraße. Dort war gerade Stau. Der Vogel lag, eingebettet in einem Tuch, in Lucas’ Lenkertasche. Wir schlängelnden uns an den Autos vorbei, bis Lucas uns zurief, dass er ein Auto mit englischem Kennzeichen entdeckt hatte. Er kehrte um und fragte diese um Hilfe. Völlig selbstverständlich übernahmen die beiden englisch sprechenden Albaner die Verantwortung für unseren kleinen Freund. Sie kämen aus Tirana und würden den Vogel zu einer geeigneten Auffangstation bringen.
Tumblr media
Sie wirkten vertrauensvoll und wir waren froh, dass es Hoffnung für ihn gab. Der Albaner forderte uns kurz vor dem Abschied noch dazu auf, der Eule einen Namen zu geben. Wir nannten ihn Paul. Später bekam er noch den Nachnamen Schrödinger. Wir haben nämlich vor lauter Aufregung vergessen mit den freundlichen Albaner Kontaktmöglichkeiten auszutauschen, weshalb wir nicht wissen, ob alles wirklich geklappt hat. Ähnlich wie bei dem Gedankenspiel “Schrödingers Katze” können wir nun ebenfalls nicht sagen, ob Paul gerade tot oder lebendig ist, bis wir nach Tirana fahren würden, um ihn zu finden und es nachzuprüfen. Von nun an ist Paul für uns beides. Wir wünschen aber natürlich Paul Schröderinger nur das Beste.
Es war ein schönes Gefühl diesem Tier unter Umständen das Leben gerettet zu haben. Wir fuhren an diesem Tag noch etwas an der breiten Straße entlang. Da Wildcampen in Albanien legal ist, wollten wir uns umkompliziert unweit der Bundesstraße ein Fleckchen Wiese für die Nacht suchen. Letzendlich entschieden für uns für einen Wieseabschnitt, auf der zwei Kühe standen. Am anderen Ende grenzte daran ein Haus. Es war offensichtlich privat. Lucas noch völlig beflügelt von den letzten Stunden, erklärte sich bereit dort freundlich zu fragen, ob wir die Nacht auf ihrer Wiese verbringen durften. Das ist allerdings abenteuerlicher, als es klingt. An diesem Abend haben wir albanische Gastfreundschaft erleben dürfen und hatten viel Spaß.
Tumblr media Tumblr media
Am liebsten würde ich noch stundelang jedes kleine Detail beschreiben, was wir vom Straßenrand aus beobachten konnten. Allerdings würde das den Beitrag absolut sprengen. Um es ein bisschen übersichtlicher zu halten, beschreiben wir die skurril, freundliche Situatution, wie wir letztendlich zu unserem Schlafplatz kamen, im nächsten Text.
Tumblr media
0 notes
jc · 5 years
Text
Das Beste aus Twitter und Mastodon, Dezember-Edition
Auch in der letzten Ausgabe es Jahres gibt es wieder saugute Tweets. (Mehr davon dann Anfang nächsten Jahres bei Anne.)
When you work alone a lot.
pic.twitter.com/DPdkVC5B0i
— laney (@misslaneym) November 12, 2018
Ich konzipiere gerade ein soziales Netzwerk für Forstarbeiter, bei dem man auf "Gefällt" klicken kann.
— Ringo Trutschke (@Nacktmagazin) November 18, 2018
Beitrag aus einer Anwaltsgruppe:
Deswegen mag uns Anwälte niemand. pic.twitter.com/GQcnB5W1Ei
— Anwaltsgelaber (@anwaltsgelaber) October 26, 2018
„Legst Du Dein Handy eigentlich auch mal weg?“ „Ja, wenn es klingelt.“
— Olle_Ziege (@Olle_Ziege) November 21, 2018
Cyberpunk is now: Soldiers with drone jammers Taksim Square, Istambul. pic.twitter.com/KXQXayHAKm
— ΜΔDΞRΔS (@hackermaderas) November 27, 2018
Weine nicht wenn die Leistung fällt – RAM, RAM – RAM, RAM #ITSchlager
— Saratorte (@SaraZuNi17) July 24, 2018
Hier ist ein Immobilienwort, das auch Du noch nicht gekannt haben wirst:
Innenbalkon.
Kein Witz. pic.twitter.com/ZdFD1ifPmw
— Konstantin Görlich (@Medienwandler) November 25, 2018
Sinalco. 37 Jahre hab ich gebraucht, um dahinterzukommen, dass das heißt, es ist kein Alkohol drin. Sin Alco. Ich Fuchs. Morgen erkläre ich dann Chili con Carne, bleiben Sie dran.
— Der Martin (@dermartinlive) August 8, 2018
.@JeffBezos Boss Transformation. via @benedictevans pic.twitter.com/IVzsHVjhT3
— martinfehrensen (@martinfehrensen) November 29, 2018
Ich höre die Katze würgen, finde aber danach nichts.
Schrödingers Kotze.
— Wechselbalg (@DrachenBreath) December 11, 2018
Im Bus schimpft eine Frau: „IN DER RUHE LIEGT DIE KRAFT, SIE IDIOT!“
— Annabell Bils (@apreussler) November 27, 2018
Zahle mit #ApplePay, haben sie gesagt.
Lass deine Geldbörse zu Hause, haben sie gesagt.
UND JETZT?!?!? pic.twitter.com/gUi3B5SKaF
— Jan Weber (@jnwbr) December 14, 2018
this is my new favourite thing, from @bruised_blood pic.twitter.com/WadZe2W2m7
— I Am Devloper (@iamdevloper) December 11, 2018
Meine Noise-Cancelling-Kopfhörer sind so gut, dass ich gerade ein ganzes Zimmer lang mit ausgeschaltetem Staubsauger gesaugt habe, nachdem der Stecker aus der Steckdose geflogen war.
— Björn Schulze (@ghostdog19) December 20, 2018
I think a lot about the ways that video games can eventually become unplayable due to outside problems like emulators being unavailable or online servers going down but this. this is hilarious pic.twitter.com/5JY65L2Qdi
— David Turnbull (@traceExcalibur) December 24, 2018
Heiligabend mit der Familie. Und Facebook hat immer noch nicht die Option freigegeben, sich "in Sicherheit" zu markieren.
— Sebastian (@sieratschki) December 24, 2016
Weihnachten. Die Zeit, in der die Familie wieder enger zusammen rückt.
Meine Eltern haben mir gerade das Du angeboten.
— Ringo Trutschke (@Nacktmagazin) December 24, 2016
Ich hätte mal ne Frage…
Kommt Chris Rea eigentlich irgendwann zu Hause an?#DrivingHomeForChristmas
— lo0nymo0n 🕹 (@loonymoon) December 30, 2018
(Original unter: https://1ppm.de/2018/12/das-beste-aus-twitter-und-mastodon-dezember-edition/)
0 notes
melbynews-blog · 6 years
Text
Die geheimnisvolle Innenwelt der künstlichen Intelligenz » Gehirn & KI » SciLogs
Neuer Beitrag veröffentlicht bei https://melby.de/die-geheimnisvolle-innenwelt-der-kuenstlichen-intelligenz-gehirn-ki-scilogs/
Die geheimnisvolle Innenwelt der künstlichen Intelligenz » Gehirn & KI » SciLogs
So fängt’s an: Ein Informatiker programmiert eine Künstliche-Intelligenz-App, startet sie und fragt: „Gibt es Gott?“
Und die App sagt: „Jetzt schon!“
Klar! Nur ein Witz! Doch ein Witz ist nach John Vorhaus Wahrheit und Schmerz, so auch dieser: Künstliche Intelligenz und unsere Angst davor:
„Wie sollen wir uns in einer Welt mit lauter KI-Maschinen fühlen, die wir nicht verstehen?“, fragen sich viele. Wo ist aber das Problem? Täglich begegnest du Tausenden Wesen, die du nicht verstehst. Schon meine Ex-Frau und ich kommen von verschiedenen Planeten: Karin von der Venus und ich aus der Tschechei.
Während meines Chemiestudiums habe ich meinen Wahlpflichtkurs in Quantenmechanik belegt. Statt wie ein braver Student nachts durch Münchner Kneipen zu ziehen, versuchte ich wochenlang, mit der Schrödinger-Gleichung das Wasserstoffatom zu berechnen. Bis ich eine Erleuchtung bekam: Ich riss die Tür unseres Schlafzimmers auf und brüllte: „Ich habe die Schrödinger-Gleichung verstanden!“
„Spinnst du?“, kreischte Karin. „Es ist drei Uhr in der Nacht!“
Glücklich schlüpfte ich ins Bett, um am nächsten Tag wieder unerleuchtet aufzuwachen – meine tiefe Einsicht in die Quantenmechanik und die Wahrscheinlichkeitsdeutung der Wellengleichung war spurlos verschwunden.
Frustriert schlief ich wieder ein. „Viele studieren jahrelang Quantenmechanik, bis sie glauben, sie zu verstehen“, tröstete mich Albert Einstein im Traum. „Sie haben aber nur gelernt, Quantenmechanik zu akzeptieren.“
Von der Quantenmechanik verlangt niemand, dass sie verständlich ist, obwohl ihre Gesetze sich über unser Denken ganz schön lustig machen. Doch künstliche Intelligenz solle gefälligst „ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können“, schreibt die Süddeutsche Zeitung. Warum ist dem so? Weil künstliche Intelligenz direkt am Heiligen Gral unseres Denkens kratzt – dem Denken selbst.
Seit ein künstliches neuronales Netz, AlphaGo der Google-Firma DeepMind, im Jahr 2016 einen der weltbesten Spieler des japanischen Spiels Go Lee Sedol geschlagen hat, ist das Schlagwort „künstliche Intelligenz“ zu einem Medienvirus mutiert – jeden Tag viele Schlagzeilen wert: Auch Angst einflößende: „Wird künstliche Intelligenz uns töten?“, heißt ein Buchtitel.
Doch unsere heutigen Künstliche-Intelligenz-Programme, künstliche neuronale Netze also, sind statistische Optimierungsverfahren zur Muster- und Spracherkennung. Keine Nachkommen des bösartigen Hal 9000 aus „2001: Odyssee im Weltraum“ – keine starke künstliche Intelligenz, die besser als wir denken und eigenes Bewusstsein haben würde. Die gibt es heute nicht einmal theoretisch!
Auch wenn künstliche neuronale Netze nicht ansatzweise so komplex und effizient lernen können wie ein kleines Kind, leisten sie Erstaunliches. Zumindest der Grundidee nach sind sie unserem Gehirn nachgebaut:
Ein dichtes Netz aus miteinander verbundenen Nervenzellen – Neuronen. Im Gehirn werden die vielen Verbindungen zwischen den Neuronen, die Synapsen, gestärkt, wenn wir lernen, reisen, neue Sachen machen, das heißt aktiv sind, und geschwächt, wenn wir mit Bier in der Hand vor dem Fernsehgerät sitzen.
Ähnlich ist es bei einem künstlichen neuronalen Netz: Die einzelnen Verbindungen zwischen den Neuronen bzw. Knotenpunkten darin werden jeweils gestärkt bzw. geschwächt, je nachdem, wie sie zu guten Ergebnissen beim Training des Netzes beitragen:
In die Eingabeschicht des künstlichen Netzes werden Daten eingelesen, zum Beispiel die Pixelwerte eines Bildes – jedem Eingabeneuron wird ein Pixelwert zugewiesen. Diese Pixelwerte werden durch weitere sogenannte versteckte Schichten des Netzes „propagiert“. Aus der Ausgabeschicht kommen dann veränderte Werte heraus.
Aus der Differenz zwischen den Ausgabe-Werten und den richtigen bzw. gewünschten Werten wird der Netzfehler berechnet, mit dem die Verbindungen im Netz neu angepasst bzw. gewichtet werden. Das wird nach jedem Durchlauf von Pixelwerten eines neuen Bildes gemacht, bis der Netzfehler minimal wird.
Oft ist jedes Neuron einer Schicht mit allen Neuronen der zwei benachbarten Schichten verbunden. Die Idee dazu gibt es schon seit 1943. Nur waren unsere Rechner früher so schwach, dass sie mit nur ein paar Schichten rechnen konnten. Deswegen hießen die Programme damals einfach nur neuronale Netze.
Durch die große Rechenleistung moderner Rechner kamen etliche Schichten dazu, und so heißen die Programme jetzt tiefe neuronale Netze. Sonst hat sich nichts geändert. Na, ja, außerdem muss man diese Netze mit großen Datensätzen trainieren.
Ein Kind sieht einen einzigen Hund und erkennt ab da jeden anderen Hund als Hund. Zumal es von seinem ersten Hund, den es gesehen hatte, gebissen wurde. Auch wenn die Hunderasse Xoloitzcuintli heiß, weiß jedes Kind, dass es ein Hund ist.
Ein künstliches neuronales Netz muss dagegen mit Tausenden bis Millionen Hundebildern gefüttert worden sein, um immer einen Hund als Hund zu erkennen. Heutzutage gibt es diese großen Datensätze. Auch mit unseren ganz privaten Daten – die kann man kaufen. Von Facebook zum Beispiel.
China ist schon eine Künstliche-Intelligenz-Weltmacht, weil es in China viel mehr frei zugängliche Personendaten gibt als Datenschutz. 😊
Trotzdem scheinen künstliche neuronale Netze – mit ein paar mathematischen Kniffen beflügelt – zwei grundsätzliche Eigenschaften des menschlichen Gehirns zu besitzen: lernen und generalisieren zu können. Das untrainierte Netz ist ein nach Erfahrung und logischen Überlegungen konstruiertes mathematisches Modell, das trainierte Netz eine Blackbox – wie konnte das künstliche Netz diesen Hund als Hund erkennen, obwohl es den Hund noch nie gesehen hatte?
Deswegen suchen KI-Forscher nach Erklärungen, warum und wie künstliche neuronale Netze so wunderbar Muster in chaotischen Datensammlungen erkennen und Daten klassifizieren können.
Die Theorie des Informationsflaschenhalses (information bottleneck) liefert vielleicht einen guten Ansatz, um unsere „Bildungslücken“ über künstliche neuronale Netze zu schließen. Sie wurde vom Neuroinformatiker Naftali Tishby von der Hebräischen Universität in Jerusalem entwickelt:
Danach können die tiefen neuronalen Netze effizient die Eingabewerte von unwichtigem Ballast befreien. Das tiefe Lernen „drückt“ nur die allgemein gültigen Signale durch den „Flaschenhals“ des neuronalen Netzes, unwichtige Rauschsignale werden herausgefiltert. „Das Wichtigste beim Lernen ist zu vergessen“, sagt Tishby.
Es wird aber auch fleißig experimentiert, um die Blackbox der künstlichen neuronalen Netze zu „entzaubern“: Was passiert in den Netzen beim Lernen? Könnten wir bei der Hirnforschung nicht nur die Struktur solcher Netze sondern auch ein paar Arbeitsmethoden abgucken?, fragten sich vor kurzem die KI-Forscher der Google-Firma Deep Mind.
Hirnforscher konnten ja das Gehirn zuerst „dank“ seinen Verletzungen erforschen: Wie ändert sich die Funktion des Gehirns, wenn kleine Teile davon verletzt werden und nicht mehr funktionieren?
Im Jahr 1848 schoss zum Beispiel bei einer Explosion eine Eisenstange durch das Stirnhirn des amerikanischen Sprengmeisters Phineas Gage.
Der Unfall machte den netten Herrn Gage zu einem Rowdy. Die Verletzung änderten massiv seine Persönlichkeit: Plötzlich zockte der brave Bürger und schimpfte wie ein Matrose. War also das Stirnhirn, der präfrontale Cortex, auch für unser soziales Verhalten und die Moral zuständig? „Schuss durch die Seele“, nannte der Spiegel vor ein paar Jahren den Fall.
Dank den neuen bildgebenden Verfahren müssen die Hirnforscher im dritten Jahrtausend zum Glück nicht mehr auf Verletzungen und Erkrankungen des Gehirns warten und können gezielt immer kleinere Gehirnteile untersuchen, ja, einzelne Neuronen:
2005 erforschte das Team des Gehirnforschers Quiroga das Problem der visuellen Invarianz: Wie identifizieren wir Sachen, wenn wir sie aus einem Blickwinkel heraus bzw. einer Ansicht noch nie gesehen haben? Wie erkennt eine Frau ihren Mann, der sein Aussehen mit vier Maß Bier grundlegend geändert hatte? Wieso erkennst du deinen kleinen Sohn, auch wenn Hansi von einer Schokoeis-Orgie bei einem Geburtstag zurückkehrt.
Bei einem Experiment sahen die Neurowissenschaftler verblüfft, dass eine Gehirnzelle nur dann feuerte, wenn sie ein Bild der Schauspielerin Jennifer Aniston sah. Auf andere Schauspieler reagierte die Gehirnzelle nicht, nur auf Jennifer Aniston. Wie ein verliebter Stalker. Später fand man aber im Gehirn von anderen Menschen Zellen, die auch auf andere Konzepte als Jennifer Aniston spezialisiert waren: So entdeckte man Konzeptzellen, die nur bestimmte Aufgaben ausführen.
Gebe es auch in künstlichen neuronalen Netzen solche hoch spezialisierten Neuronen, wie die Jennifer-Aniston-Neuronen im menschlichen Gehirn?, fragten sich die KI-Experten der Google-Firma Deep Mind. Um die Blackbox der neuronalen Netze zu entzaubern, wollten sie einzelne Neuronen und Neuronengruppen ausschalten und schauen, was dabei mit dem künstlichen Netz passiere.
Wie wird durch die „Verletzung“ dieser Netzteile die Funktion des Netzes beeinflusst? Sind die leicht interpretierenden „Katzen-Neuronen“ („Cat Neurons“) für das künstliche Netz wichtiger als die „konfusen“ Neuronen? „Katzen Neuronen“ feuern, wenn das künstliche Netz mit dem Bild einer Katze gefüttert wird, wogegen „konfuse“ Neuronen keine bildtypische Spezialisierung zeigen.
Zwei interessante Ergebnisse kamen dabei heraus: Für die Funktion des künstlichen Netzes ist es nicht wichtig, ob spezialisierte „Katzen-„ oder „konfuse“ Neuronen gelöscht werden. Außerdem sind „generalisierende“ Netze gegen solche Verletzungen weniger anfällig als „memorierende“.
„Generalisierende“ Netze erkennen nach dem Training mit Tausenden Katzenbildern auch Katzen auf Bildern, die sie vorher nicht gesehen haben. „Memorierende“ Netze erkennen dagegen nur Katzen, an die sie sich erinnern, mit denen sie also trainiert wurden.
Beide Ergebnisse sind auch dem natürlichen neuronalen Netz eigen, also unserem Gehirn: Das Gehirn kann weiter gut funktionieren, auch wenn einzelne Neuronen oder sogar Neuronengruppen verletzt werden. Oft übernehmen andere Neuronen und Gehirnteile Funktionen der verletzten Teile. Sogar mit nur einer Gehirnhälfte kann der Mensch weitgehend normal leben.
Und klar ist das Gehirn auch ein generalisierendes neuronales Netz und kein nur memorisierendes, also kein einfacher Speicher. Wir Menschen sind Meister im Verallgemeinern. Von Bekanntem können wir wunderbar aufs Unbekannte Schlüsse ziehen.
Vor kurzem haben aber Künstliche-Intelligenz- und Kognitions-Forscher von Deep Mind und University College London beim Experimentieren mit einem neuronalen Netz noch Erstaunlicheres beobachten können:
Bei der Suche nach dem kürzesten Weg durch ein Labyrinth bildete ihr künstliches Netz von sich aus und automatisch Zellen, die den Gitterzellen in natürlichen Gehirnen ähneln. Die Gitterzellen (im entorhinalen Cortex) und Ortszellen (im Hippocampus) sorgen für tierische aber auch unsere Navigation und Orientierung im Raum.
Das neue künstliche Netz mit den so entstandenen Gitterzellen hat den kürzesten Weg durch ein Labyrinth viel besser gefunden als ein herkömmliches künstliches neuronales Netz.
Trotzdem zeigt das menschliche Gehirn viel komplexeres und effektiveres Lernverhalten als ein künstliches neuronales Netz. Im Gehirn wird ja die Information hochgradig parallel verarbeitet. Diese Art der Informationsverarbeitung kann man mit heutigen Computern nicht einmal annähernd bewerkstelligen, obwohl Hollywood-Filme wie „Transcendence“ mit Johny Depp diesen Eindruck vermitteln.
In „Transcendence“ entwickelt sich eine starke übermächtige KI, nachdem man das Gehirn von Dr. Will Caster (Johny Depp) in einem Computerprogramm emuliert – also nachgebildet – und ins Internet gespeist hat.
Seit 30 Jahren kennen wir das Nervensystem des Fadenwurms C. elegans, mit seinen 307 Neuronen und den 7.000 Verbindungen dazwischen, und sind immer noch nicht in der Lage, dieses winzige neuronale System im Computer zu emulieren, damit es als ein Computerprogramm funktioniert.
Wie sollen wir dann das menschliche Gehirn im Computer emulieren, das etwa 86 Milliarden Neuronen mit 100 Billionen Verbindungen dazwischen hat? Trotzdem wird die Erforschung und Weiterentwicklung der künstlichen neuronalen Netze nicht nur in ihrer Anwendung immer fruchtbarer:
Dank der Hirnforschung konnten wir künstliche Netze entwickeln und sie immer besser verstehen. Jetzt können wir durch ihre Erforschung zu verstehen lernen, wie unser Gehirn funktioniert.
Es bleibt spannend.
    Weiterführende Lektüre:
  https://www.quantamagazine.org/new-theory-cracks-open-the-black-box-of-deep-learning-20170921/
  https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/
  https://deepmind.com/blog/grid-cells/
  SciLogs
Quelle
قالب وردپرس
0 notes
grxnsekxtse · 6 years
Text
character/relationship/faction tag dump
0 notes