Lernen mit Medien und digitale Bildung

Schlagwort: video (Seite 1 von 1)

Screencast Nachbetrachtung

Eben habe ich ein Screencast-Projekt zur Einführung in eine neue Applikation abgeschlossen. Was habe ich in diesem Projekt gelernt?

Fachliche Learnings:

Keine Aufträge annehmen ohne Storyboard

Ein Grobkonzept war da, aber kein Storyboard. Auf die Notwendigkeit hatte ich mehrmals hingewiesen und Beratung und Begleitung in der Erstellung angeboten. Mit dem Argument, dass die Sprechenden ohnehin Erfahrung mit Präsenzsschulungen zu der Anwendung hätten, wurde auf das Storyboard verzichtet. Die handelnden Personen stellten jedoch im Screencast-Aufnahmeszenario fest, dass es sich doch um eine eine andere Situation handelt, die sich anders anfühlt.

Die Folge:
Ein Vielfaches an Aufwand in der Nachbearbeitung.
Das fehlende Drehbuch / Text halten machte die Sprechenden unsicher. Dies führt zu Unsicherheit und Überforderung und letztenendlich zu inhaltlichen und technischen Fehlern. Diese sind unverhältnismäßig schwieriger in der Nachbearbeitung zu beheben. So ließ sich auch ein Nachdreh nicht vermeiden. Der Nachdreh verlief flüssiger, denn der Sprecher hatte sich diesmal einen Text vorbereitet.

Grobkonzept und das Storyboard müssen mit allen Beteiligten abgestimmt sein

In meinem Fall hatten die IT-Experten die Use-Cases und das Grobkonzept erstellt. Dann wurde aufgezeichnet. Die Vertreter des Fachbereiches auf Anwenderseite beschäftigten sich erst nach dem Dreh und der Bearbeitung mit dem Video. Dadurch hatten Sie nach dem Dreh zahlreiche Änderungswünsche. Die Aufteilung und der Workflow sind aus dem Gesamtprojekt des Softwarerollouts und mangelnder Kommunikation entstanden.
Aus meiner Sicht ist essentiell, dass bereits in der Konzeptphase alle beteiligten Stakeholder teilnehmen.

Die Folge:
Extrem hohe Aufwände in der Nachbearbeitung. Es wurde schließlich etwas gedreht, was nicht nötig war bzw. etwas nicht gedreht, was rein musste.

Technische Learnings

Nun hatte ich dadurch auch einige technische Learnings in der Nachbearbeitung, da ich sehr viel basteln musste und ich tunlichst Aufwände durch Neudreh vermeiden sollte. Das ist jetzt alles nicht State-of-the-art und es geht schöner. Manchmal geht es aber eben aufgrund von Rahmenbedingungen nicht anders:

  • Felder in der Appliaktion, die nun eine andere Bezeichnung haben, können nachgelagert mit Screenshots überlagert werden.
  • Ungewünschte Felder & Daten in der Appliaktion können verpixelt werden.
  • Wenn die Auflösung oder die angezeigten Felder in zwei zu unterschiedlichen Zeitpunkten gedrehten Szenen nicht ganz zusammenpassen helfen Übergangseffekte wie Verpixeln oder Aufrollen. Sie lenken die Lernenden ab und lenken ab von Unstimmigkeiten in den Szenen.
  • Fehlende Informationen / Fehlender Sprech können, wenn man den Sprecher nicht zur Hand hat, in Sprechblasen / Textboxen ausgelagert werden.
  • Wenn man eine nachgedrehte Szene mit einem anderen Sprecher in ein Video einbetten muss, kann man mit SFX – z.B. einem „Zusch“ akustisch nachhelfen, damit der Wechsel für den Lernenden nicht so gekünsteln, sondern bewusst inszeniert wirkt.
  • Sprecher die überfordert sind mit Klicken und Sprechen zugleich, kann man so entlasten:

    Aufzeichnung 1: Nur sprechen lassen

    Aufzeichnung 2: Audio abspielen und den Sprecher dazu klicken lassen

Das war’s fürs Erste. Hoffe es hilft, und viel Spaß beim Screencasten!

Untertitel für Lernvideos

Untertitel in einem Video sprechen bei Lernenden einen zusätzlichen Sinneskanal an:

  • schließlich gibt es ja auch Anwender die den Lerninhalt am liebsten in Textform aufnehmen.
  • Zudem kann das Video auch an Orten konsumiert werden, wo der Ton vielleicht stört: Beispielsweise wenn Lernende in der U-Bahn oder im Bus sind und keine Kopfhörer verwenden wollen / können.


Warum also nicht auch versuchen, diese Zielgrupppen und Szenarien zu berücksichtigen, indem man für eigene Videos Untertitel verfasst.


Nachdem ich aus dem Studium weiß, wieviel Arbeit das Transkribieren einer Ton- oder Videoaufnahme bedeutet, suchte ich in Zeiten von Siri, Alexa & Co nach einem nützlichen Assistenten für Spracherkennung. Die Hoffnung war, dass die mir die Technik mittlerweile einen Teil der Transkriptionsarbeit abnehmen kann und ich das Transkript nurmehr überarbeiten muss.
Bingo, mein erster Test hat zu super Ergebnissen geführt – und zwar mit dem Programm Amberscript. Ganz einfach konnte ich die fertigen Transkripte dann ins SRT-Format exportieren und in meine Videos auf Vimeo einbauen.

Mobile Learning

Was tun bei sperrigen Inhalten, die sich nicht für die Integration in eine Mobile Lernanwendung eignen?


Konkret hatte ich Folgendes zu lösen:
In einem mobilen Lernkurs war nach einem Theorieteil nun auch einen Praxisteil zu machen, der sich auf einen Zeitungsartikel bezieht und diesen daher auch mitbehandeln musste.

  • Aus der LernApp auf eine externe Seite zu verlinken ist unschön, weil die Lernenden aus der Anwendung rausgerissen werden.
  • Den Artikel statisch beispielsweise in einem PDF zur Verfügung zu stellen geht gar nicht für komfortables Lernen am Smartphone.

Das Thema löste ich nun so:

Ich erstellte einen Videoclip, in welchem ich die wichtigsten Passagen des Zeitungsartikels vorlas. Damit machte ich den Artikel smartphonetauglich und bediene zusätzlich verschiedene Kanäle: Lernende, die gerne Lernvideos schauen und jene, die den Artikel lieber nur hören. Zusätzlich habe ich dennoch auf den Originalartikel verlinkt. Damit führe ich die Lernenden zwar aus der Lernanwendung raus, gebe ihnen jedoch die Möglichkeit, den ganzen und originalen Artikel zu lesen und verweise gleichzeitig auf die Quelle. Im Vergleich zum PDF habe ich den Vorteil, dass der Artikel in der mobilen Version der Zeitung nicht statisch, sondern responsive und damit wirklich lesbar ist auf einem Display eines Smartphones.

Wie löste ich das technisch?

  • Die wichtigen Passagen in großer Schrift auf eine Powerpoint.
  • Artikel vorlesen und via Screencastsoftware – in meinem Fall Camtasia – aufnehmen.
  • Gegebenenfalls ebendort nachbearbeiten.

Audio in Explainervideos

Die größte Herausforderung beim Erstellen von Explainervideos ist aus meiner Sicht die Synchronisation von Audio und Video. Voraussetzung dafür sind auf jeden Fall gute Vorbereitung in Form eines durchdachten und mit dem Fachbereich abgestimmten Skriptes und/oder Storyboards.
Bei der Synchronisation habe ich mehrere Varianten probiert – alle stellen sich als relativ aufwändig heraus.

  • Variante 1: zeitgleiche Aufnahme bei der jeweiligen Aktion (also z.B. beim Zeichnen oder Bewegen des Mauszeigers)
    Erfodert ein hohes Maß an Konzentration beim Sprechenden, da er ja gleichzeitig auch etwas anderes (zeichnen, bewegen, legen, animieren, …) .
    Spricht jemand Unerfahrener ein, z.B. eine Person aus dem Fachbereich, bedeutet diese Methode viel Betreuungsaufwand und ist fehleranfällig.
    Schnitt und Nachbearbeitung gestalten sich jedoch einfacher.
  • Variante 2: nachgelagerter Sync von Audio und Video
    Ist in der Produktion und Aufnahme einfacher und auch für Unerfahrene Personen leichter.
    Bedeutet jedoch sehr viel mehr Aufwand bei Schnitt und Nachbearbeitung. Im Extremfallmuss man Szenen nachfilmen, nachzeichnen, nachsprechen.

Welche Variante man wählt hängt wohl vom Kontext ab.

Weiters wurde mir die Wichtigkeit von Sound-Effects (SFX) bewußt und wie präzise der Effekt getimed sein muss. Ein Millisekunderl zu spät und die Animation ist nicht mehr stimmig.
Ein leises „Filzstift-auf-Flipchart“-Geräusch im Hintergrund macht ein Whitbeoardvideo gleich viel ansprechender.
Seiten für kostenlose Sound Effects gibt es viele, zum Beispiel https://freesound.org/.

Wie sind eure Erfahrungen mit Synchronisation und Sound Effects? Ich freue mich auf Beiträge und Meinungen.

explainer videos

In den letzten Wochen habe ich mich mit dem Thema Explainer Videos beschäftigt und einen Prototypen zu einem Banking-Thema erstellt, der zeigt, wie ich mir das so vorstelle.

Das Video habe ich mit Videoscribe erstellt, wobei ich nicht nur mit den fertigen Schablonen, sondern mit eigenen Zeichnungen gearbeitet habe.
Eigene Zeichnungen müssen Vektorgraphiken sein, damit die Hand in Videoscribe sie auch wirklich zeichnet und nicht einfach nur „reinschiebt“. Die Hand zeichnet die Graphik übrigens im selben chronologischen Ablauf, wie man sie im Graphikprogramm selbst gezeichnet hat. Das ist mitunter wichtig, weil man etwa bei Personen mit den Augen beginnen sollte, damit es für die Zusehenden nicht „komisch“ wirkt.
Graphikprogramme gibt es viele – bei Programmen die in das Vektorformat (SVG) exportieren wird die Auswahl schon kleiner. Klassiker unter Windows und Mac ist natürlich Adobe Illustrator, aber für „Gelegenheitszeichner“ wie mich ein wenig zu teuer. Inkscape ist unter Windows eine tolle Open Source-Alternative. Auf meinem Huawei Mediapad war die Suche noch herausfordernder. Viele Apps gibt es nur auf dem Ipad. Mit Infinite Design bin ich schließlich auch hier fündig geworden. Schade fand ich, dass Autodesk Sketchbook in der App keine SVGs exportieren kann, denn die App find ich wirklich super.
Es gibt einige Dinge in der Erstellung zu beachten – hier findet man eine gute Anleitung für den Start. Das wichtigste ist wohl, dass man nicht die Brushtools, sondern den Pencil oder einen „Basic Stroke“ verwendet, weil Videoscribe die Zeichnungen sonst in Outline abbildet. Mit jeder neuen Zeichenanwendung hatte ich diverse Export/Import-Tests durchzuführen, denn die SVG-Exporte sind von Programm zu Programm sehr unterschiedlich.

Für meine Story habe ich natürlich ein Storyboard erstellt, auch das hat mit Onenote elektronisch super geklappt. Die Animation selbst erstellte ich mit Videoscribe und schnitt sie dann in Camtasia. Dort konnte ich sie auch super nachvertonen: Audio und Video-Nachbearbeitung so ganz ohne Spuren wäre mir echt zu mühsam gewesen. Die Hintergrundmusik fand ich auf bensound.com – dort gibt es ein großes Angebot an Video-Hintergrundmusik unter CC-Lizenz. Ganz toll unterstützt haben mich übrigens beim Zeichnen ein Wacom Intuos S-Grafiktablett und beim Aufnehmen ein Roede NT USB-Mikrofon.
So wie oben oder zumindest so ähnlich stelle ich mir simple Explainervideos vor und diesen Weg werde ich weiterverfolgen und natürlich lernen, lernen, lernen und mich laufend verbessern 🙂 Hat jedenfalls sehr viel Spaß gemacht, über Feedback zum Video freu ich mich natürlich.





Video-Annotation

Im Rahmen meiner Recherche zu Masterthesis habe ich nebenbei eine großartige Möglichkeit entdeckt, Lehrvideos auf der Timeline zu annotieren.

Noch dazu frei verfügbar und mit der Möglichkeit von Online-Kollaboration. Ich bin begeistert.
Da Videos immer mehr an Bedeutung im Edu-Bereich gewinnen, werden Tools für Video-Annotions denke ich noch von sich hören lassen.

VideoANT

Auch im L3T finden sich hierzu wertvolle Hinweise zu  anderen Tools – und natürlich auf meiner edutool-Page.

Explaineverything

…eine Whitboarding- und Presentationapp für Windows, iOS und Android, die am besten in Kombination mit einem Tablet und Stift funktioniert.
Seine Zeichnungen kann man sowohl live bei einem Vortrag zeichnen und auf den Projektor übertragen, als auch zu Hause quasi als Video-Aufzeichnen und auf diverse Plattformen (Youtube, Dropbox, …) exportieren.
Hierfür bietet es Timeline-Editierfunktionen: Eine Video und eine Audiospur.

  • Seine Zeichnungen kann man skalieren, anordnen, gruppieren, löschen, animieren.
  • Man kann zusätzlich Videos und Bilder in seine Zeichnungen einbauen.
  • ein virtueller Laserpointer macht es möglich auf dem Whiteboard auf gewisse Stellen zu zeigen
  • kollaborativ mit anderen am Whiteboard arbeiten

In Summer ein tolles Produkt für kreative Educators.
Leider ist es nicht kostenlos, aber mit der Edu-Lizenz bekommt man 5 User für rund 30 Euro im Jahr. Meiner Meinung nach sein Geld wert.

Erklärvideo Kommunikationstheorie

Archiveintrag

Erklärvideo aus dem Studium eeducation

Endlich ist das Video fertig.Die Theorien von McLuhan waren interessant, jedoch anstrengend zu lesen.
Ich habe mich dazu entschieden, die Aufgabe auch wieder mit dem Lernen einer neuen Darstellungsvariante zu verbinden.
Daher habe ich mich nicht selbst gefilmt, sondern auf einem elektronischen Whiteboard gezeichnet und präsentiert.
Dazu habe ich mein Tablet und die App Explain Everything getestet.
Um die Zwischengeräusche zu vermeiden, habe ich mir das Smartlav-Mikro von Roede besorgt.

Das Erstellen war sehr aufwändig:

  • Text zusammenzufassen
  • Storyboard machen
  • sich gute Zeichnungen dazu zu überlegen
  • diese noch ein wenig zu üben
  • ein paarmal Lesen und deutlich Sprechen
  • am schwierigsten war das Timing: das Audio und die Zeichensequenzen synchron hinzubekommen.
  • letztendlich musste ich das ganze noch schneiden.
    Dazu habe ich mich in Hitfilm 4 Express eingearbeitet. Dieser Video-Editor ist kostenlos, wenn man dazu bereit ist seine Emailadresse herzugeben und überraschend mächtig.

Letztendlich war das Ganze wieder mal weitaus mehr Arbeit als erwartet, aber es hat Spaß gemacht.

Zuätzlich habe ich McLuhan jetzt wohl verinnerlicht und kenn mich zusätzlich noch mit 2 Programmen aus, die ich auch in Zukunft noch gut brauchen kann.

css.php