10 New Jobs for the Workers of the Future – Rowan Trollope – Medium

https://medium.com/@rowantrollope/10-new-jobs-for-the-workers-of-the-future-8d3e3ce4a23a

Advertisements

Ob Andrew von Semalt schon mal in Linz war?

Ich bin mir nicht sicher, aber ich denke Andrew will nur das Beste für mich, wöchentlich schickt er mir eine Mail in der er mich daran erinnert, dass ich noch ein Blog habe, um das ich mich kümmern muss. Er hat ja recht, vollkommen recht. Deshalb, danke Andrew von Semalt, du hast es geschafft.

Zum Glück habe ich auch ein paar spannende Sachen gefunde, denn ich war in Linz, es gab dort das Ars Electronica Festival. Und ich habe noch frei. Bis Montag.

Dort gab es viel zu sehen – zuviel für einen Tag, aber ich will versuchen die für mich interessantesten Eindrücke zusammenzutragen – für Andrew. Im Video oben noch eine Zusammenfassung von einem der Verantwortlichen der Ars Electronica.

Kreisel Elektroautos aus Österreich mit extrem leichten Batterien. So könnte Elektromobilität wirklich massentauglich werden. Gewicht Batterie 4,1 kg, Akkupacks zwischen 1 und 3 Kg. Hier eine Kooperation mit BMW.

g.tech (MindBeagle, Intendix, Brain Computer Interface System Research) Ich bin kein Ingenieur, daher will ich gar nicht erst versuchen die Technik zu erklären. Ich kann nur laienhaft zusammenfassen: die Technik misst Gehirnströme und wird auf jeden Patienten/Nutzer passend trainiert. Diese Trainingsdaten werden dann über MathLab ausgewertet und dem System als Basisdaten zugrundegelegt, damit das System die personaliserten Werte richtig deutet. Damit wird es möglich nur über Gehirnaktivität z. B. Tastaturen zu bedienen und so zu kommunizieren. Nun wurde eine Möglichkeit vorgestellt auch Avatare auf diese Art und Weise zu steuern. Diese Lösungen sollen zu nächsten Menschen mit Locked-in-Syndrom, minimalen Bewusstseinszustand oder auch nach einem Herzinfarkt neue Therapiemöglichkeiten eröffnen und Ihnen den Kontakt zur Umwelt erleichtern. Mehr Informationen dazu hier

-> http://www.gtec.at/Products/Complete-Solutions/g.BCIsys-Specs-Features

Refugee Phrasebook eine super Möglichkeit, um grundlegende Vokabeln in den wichtigsten Sprachen (Arabisch, Farsi, Dari, Tygrinia, viele slawische Sprachen, Kurdisch, Türkisch, Somali, u.v.m.) auf Englisch und Deutsch zugänglich zu machen. Kostenlos und man benötigt nur GoogleDocs und LibreOffice um ein eigenes personalisiertes Phrasebook zu erstellen.

Die Hauptaustellung im AEC „Radical Atoms“ zeigt unter anderem verschiedene Entwicklungen von Materialien und deren Verwendung z. B. Holz das durch neuartige Lackierungen verformt werden kann. Oder Bakterien die für die Verwendung in Kleidung konzipiert werden.

 

Mir selbst gefielen die „Music Bottles“ am besten, die gibts aber schon lange -> hier zum Video:

 

Also los Andrew von Semalt, wenn du noch nicht in Linz warst, dann solltest du dich umgehend auf den Weg machen!

Darf Watson das?

 

7616295126_4eec3da124_o

Flickr, Sounds Around, Stuart Bannocks, CC-BY 2.0

Ich bin nachdenklich. Warum? Weil ich diesen Artikel hier gefunden habe. Eine auf Watson von IBM basierende App mit Namen „Ziggy“ die alle Alter Egos von David Bowie an Hand von den Songtexten analysiert und dann eine Persönlichkeits-Analyse durchführt. Meine Nachdenklichkeit dreht sich um Folgendes: Ich bin großer Watson-Fan und ich mag David Bowie, ich liebe Illustrationen und bin fasziniert von der Genauigkeit der Natural-Language-Analysis, aber irgendwie gefällt mir die App nicht. Ich möchte meinen Helden nicht durch meinen Lieblingsalgorithmus entmystifiziert wissen!

Ist das dämlich? Ich weiß es nicht! David Bowie hätte das vielleicht sogar super gefunden, vielleicht – man weiß es nicht. Interessant, dass es mich mehr stört die Kunstfiguren eines Musikers analysiert zu wissen, als meine eigenen Email-Texte. Aber Kunst braucht Geheimnisse, Anonymität und Spekulation um zu wirken. Wo kommen wir denn da hin, wenn es die Frage: und was wollte der Künstler uns damit sagen? Einfach nicht mehr gibt, weil künstliche Intelligenz uns  erklären möchte, was der Künstler exakt damit gemeint hat. Ich will am besten immer gar nicht wissen, wie die Leute heißen die Kunst machen die mir gefällt, aber dann finde ich Ihre Sachen nicht mehr – wenn ich nicht weiß nach wem ich suchen muss. Ein Dilemma!

Ich sollte mich eventuell nicht so aufregen, schließlich sind Kunst und Technologie, Konzerne und Musik sind schon lange eng miteinander verwoben. Zudem bin ich in den letzten Wochen auf immer mehr Beispiele gestoßen die den Innovations-Charakter in Musik und Technologie zusammenführen. Ein weiteres interessantes Projekt ist DELQA von Matthew Dear (dazu später mehr). Was haben beide gemeinsam, was unterscheidet sie? Wo sind die Wurzeln und wie kann der „Underground“ plötzlich zu Testimonials für Global Player werden? Der Whistleblower zum Popstar und der DJ zum Marketing-Fachmann. Ich fange mal 1970 an, da ist viel passiert, das heute großen Einfluss auf Musik und Technologie hat.

 

Wenn ich hier mit Brain Eno und den Talking Heads schon zurück in die 1970’er gehe, darf natürlich dieser Herr auch nicht fehlen. Richard Branson er schuf aus einem Label Virgin eine komplette Marketing-Galaxy und ist mit seinem Unternehmen Virgin Galactic, aktuell genauso, wie Elon Musk (SpaceX) daran interessiert auch andere Welten für Tourismus und private Raumfahrt zu erschließen. Beide Firmen arbeiten aktuell an den schwierigsten Vorhaben, der Raumfahrt und SpaceX sichert aktuell die Versorgung der ISS.

Zurück zur Musik. Eine weiter Meldung die mir begegnet ist, ist dies Kooperation Jean-Michell-Jarre und Edward Snowden. Beide wollen, ein Bewußtsein schaffen für moderne Technologien und die damit einhergehende Verantwortung. Die Message haben sie in einen Techno-Track gepackt, der einen umgehend die Rolle eines CIA-Agent während einer Verfolgungsjagd, in einem etwas älteren Videospiel einnehmen lässt, untermalt mit der Stimme von Edward Snowden, verpackt:

Guardian-Video

Eine weitere Rollen spielen sicher Festivals, wie Burning Man und SXSW, die als Keimzellen von Innovation und neuen Geschäftsideen angesehen werden — nicht nur für die Musik-Industrie, und die so neu geschaffenen Möglichkeiten des branchenübergreifenden Netzwerkens in angenehmer Atmosphäre. Die Zielgruppe der Festivals sind — na, wer wohl? Die einkommensstarken Metal, Indie- und Electro-Pop liebenden Königsnerds aus aller Welt, für die auch die Leitmedien Deutschlands Ihre Musikkolumnen formulieren. Ein recht interessanter Artikel zu der Entwicklung der Festivals, (allerdings in USA) hier bei Quartz. Es wurden hier alle Line-Ups verglichen um aufzuzeigen, welche Künstler an wie vielen Festivals spielen. Ein Beispiel für sinnvolle Datenanalyse. Eigentlich sollten alle Artikel so respektvoll und auf die Essenz der Information ausgerichtet sein, wie diese Cover-Story von Pitchfork.

Ah, ich habe vorhin noch was von DELQA erzählt.

 

DELQA ist eine Installation, die es durch die Kintec-Technologie von Microsoft möglich macht Musik im Raum selbst zu gestalten. Bewegungen lösen Sound-Frequenzen aus und machen so den Besucher zum aktiven Gestalter der Musik, die er im Raum hört.

Ein interessantes Konzept, das auf seine Art dem Künstler wieder viel mehr Raum gibt als Person hinter seine Kunst zu treten. Mehr dazu könnt Ihr hier nachlesen: Artikel Pitchfork.

 

Vielleicht erstelle ich so ne Watson App für alle Rollen die Ryan Gosling mal gespielt hat. Bei Schauspielern finde ich das irgendwie besser. 

Ein moderner Donauspaziergang

image

Endlich habe ich es geschafft nach Linz zu fahren und mir das Ars Electronica Center anzusehen.

Drei wichtige Dinge, die ich gelernt habe:
1. Den Telegarten gibt es nicht mehr.
2. Infotrainer dort lieben Ihren Job.
3. Rechte und linke Augäpfel kann man an blinden Flecken auseinanderhalten.

Ich glaube ich habe noch nirgendwo eine so humorvolle (aber keineswegs alberne) und interessante Führung durch eine Ausstellung gehört, wie dort. Angefangen habe ich mit dem Seminarraum, wo ich die ersten Schwierigkeiten mit den interaktiven Stiften dank einer ersten Einführung dann doch noch meisterte. Das Thema dort war „Städte der Zukunft” und noch so einiges mehr. Dokumentiert wird unter anderem, das Projekt Venus und dessen Initiator Jacque Fresco, damit habe ich die ersten 30 Minuten verbracht bis mir auffiel, dass das Material dazu so umfangreich ist, dass ich wahrscheinlich den ganzen Tag damit verbringen kann, ohne auch nur einen anderen Raum gesehen zu haben. Also weiter zum nächsten Stockwerk.

Im 2. Stock gibt es gerade z. B. Furnished Fluids zu sehen. Eine Visualisierung und Bewusstmachung von Luftströmen die uns — oder in diesem Fall Objekte umgeben.

Dann, Treppe wieder runter in das 3. Untergeschoss, ja ich geb’s ja zu, man hätte auch von oben nach unten gehen können oder von unten nach oben. Ich habe mich eben für den etwas abwechslungsreicheren Kurs entschieden.

Also, angekommen in Untergschoss zuerst in der Kinder-Workshop-Ecke gelandet, um die Ecke herum und rein ins Vergnügen. Begonnen habe ich bei dem Thatcher Effekt, dann bin ich bei der wissenschaftlichen Erklärung zu Liebe gelandet und habe dannach den Teleonoiden von Hiroshi Ishiguro entdeckt. Bei dem ich zugegeben ohne weitere Erklärung, nicht recht gewusst hätte was ich damit anfangen soll.

Gleich neben dem Telefon der Zukunft wartete dann auch schon Pflegerobbe Paro auf der Couch, der was ich auch nicht wußte nicht nur in Japan, sondern auch in Österreich und Deutschland, schon seit mehreren Jahren bereits im Einsatz ist.

Weiter im Raum der mit seiner Informationsdichte eigentlich mindestens drei Wochen Zeit verdiente und nicht nur zwei Stunden. Als nächstes dann ein Video von der kleinen schlafenden Riesin die angezogen werden muss, in Berlin.

Dann schon wirklich etwas erschöpft durch den ganzen Input auf zum Retina fotografieren und eine optische Installation inspizieren, die etwas mit schnellen Bewegungen und Projektionen zu tun hat. Besonderes Highlight, wenn man seinen Kopf schnell bewegt erscheinen zwischen den Lichtobjekten plötzlich Bilder. Wie das genau funktioniert habe ich zwar immer noch nicht verstanden, aber ich werde mich informieren. Noch etwas durchs Brainlab und Fablab geschlendert und jetzt auf in den 1. Stock zum letzten Themenpunkt „Raumschiff Erde”. Hier werden Fakten zu Ländern, Verkehr, Luftverschmutzung und vielen mehr in interaktiven Satelitenbilder präsentiert.

Dann sehr zufrieden und neu aufgeladen mit einer irrsinnigen Fülle an Information, in das Erdgeschoss, Apfel aus dem Schließfach geholt, hingesetzt etwas getrunken und noch einen kleinen Spaziergang über die Donau in die Linzer Innenstadt gemacht. Dann, auf zum Bahnhof, um die Rückreise anzutreten.

Aber ich komme wieder, um mir all das anzusehen, was ich diesmal nicht geschafft habe.

//

Artifical Trusting, Telegärten und Cloud Robots

Heute auf You-Tube in der AI-Abteilung gelandet. Gefunden ‚Science Round‘ mit zahlreiche Doku’s z. B. zu dem Thema: Artificial Intelligence, Cloud Robots, Trusting Technology. 

Besonders hat mich dieses bereits beendet Projekt fasziniert, dass 1995 eine Grundlage für das heutige Konzept der „Community-Based-Robots“  — sogennannte „Cloud Robots “ lieferte.

Das Prinzip des Telegartens war folgendes: User konnten über einen Roboterarm, der über eine Webseite gesteuert wurde, säen, gießen oder pflanzen. So, wurde der Garten von einer weltweiten Community versorgt. Die Installation kann man leider nicht mehr im Ars Electronica Center in Linz sehen.

„In linking their garden to the World Wide Web and creating an intuitive interface for the control of the arm and camera, the artists transformed what most would consider a fit of over-engineering into a subtle rumination on the nature of the Commons.“ — Peter Lunenfeld, Flash Art , XXIX, 187, March 1996.

Mehr zu dem Projekt kann man hier erfahren -> http://www.ieor.berkeley.edu/~goldberg/garden/Ars/

Durch das Open-Source-Prinzip kann der Robotor zudem sehr schnell schwierige und sogar feinmechanische Aufgaben lösen. In naher Zukunft sollen Operationen mit „Cloud Robotern“  stattfinden.

Natürlich, ist auch hier die Frage der Verantwortung und des Vertrauens nicht zu vergessen, doch auch hierzu gab‘ es in der Doku einen sehr interessanten Ansatz — wenn bei der Entwicklung der AI die Problemlösung, Menschlichkeit und Zieldefinition im Mittelpunkt stehen, sind Dystopien — wie, wir erschaffen eine neue Rasse, die unseren Hund zum Frühstück verspeist, schlicht unnötig.

Hier noch ein Beitrag von Ken Goldberg dem Co-Director des Projektes, zu der Frage: Was fasziniert uns an Robotern?

Was sind eigentlich Lichfeldkameras?

Nvidia und die Stanford Universität haben eine neue VR-Brille entwickelt die auf den Prinzipien der Lichtfeldkameras basiert. Dadurch soll das 3D-Erlebnis „natürlicher“ und besser an unsere Sehgewohnheiten angepasst werden.

Ach so. Ähm, Moment … Was sind denn Lichtfeldkameras?

Seit 2013 sind Lichtfeldkameras auf dem deutschen Markt erhältlich. Der große Vorteil dieser Kameras ist, dass Bilder durch die größere Anzahl an Informationen einfacher digital nachbearbeitet werden können, im Nachhinein können z. B. Blickwinkel  verändert werden, was bei der Verwendung in 3D-Projekten eine große Vereinfachung darstellt. Wer noch mehr dazu wissen will, hier gibt’s Info’s.

Wie nützlich ist der Mensch?

Da ich gerade dabei bin mein digitales Wissen rundum zu erweitern, habe ich einen Machine-Learning-Kurs auf Coursera belegt. Dort werden viele Hintergründe und auch viele Formeln und Prozesse erklärt, die es Systemen ermöglichen Wissen aufzubauen, Strukturen zu erkennen und diese zu perfektionieren.

Seit ich diesen Kurs belegt habe, bei dem ich zugegeben mit meiner doch eher humanistisch ausgerichteten Bildung, viel an mathematischen Verständnis erst einmal aufbauen muss. Fällt mir auch immer mehr auf, in wie vielen Bereichen dieses Thema inzwischen schon Alltag ist.

Heute Morgen zum Beispiel habe ich einen Artikel in „der Zeit” entdeckt, der diskutiert, ob es möglich ist Journalisten durch Roboter zu ersetzten. SoftBank, ein japanisches Unternehmen, verkauft seit Juni Pepper, den ersten Roboter für Zuhause, Preis ca. 1.500 Euro, plus Betriebskosten für die Cloud-Services und Versicherung.

Seit Tagen wird über den neuen Bilderkennungsalgorithmus von Google gesprochen. Mini hat eine Brille entwickelt, die den Fahrer, über „Seethrough” und Außenkameras am Fahrzeug, beim Navigieren unterstützt.

Richtig genutzt sind alle diese Techniken fabelhafte Erweiterungen unseres Alltags. Durch den Bilderkennungsalgorithmus scheint sogar ein Muster der Kreativität erklärbar zu werden. Wenn sogar Kreativität einem Muster folgt, wo ist dann Raum für Individualität ? Ich werde mir jetzt mal eine Formelsammlung schnappen und versuchen herauszufinden, wie sicher solche Algorithmen sind.