onsdag den 22. september 2010

Interaktiv Afskrifter og Automatisk Billedtekst for Developer Videos

Lagde du mærke til den nye interaktive Transcript funktion, der lader dig scanne hurtigt gennem den fulde ordlyd af en ejer-udførligt video, du ser på YouTube? For videoer fra I / O, hvilket betyder at du hurtigt kan scanne gennem en 60 minutter snak for at finde netop den del af talen, at du skal se. Eller brug din browser søgning med Interactive Transcript at finde en omtale af en API opkald og derefter klikke på et ord i afskriften at hoppe direkte til den del af videoen.

Fordi udviklerne ikke alle taler engelsk (og fordi nogle udviklere taler virkelig hurtig, når den fremsætter) vi billedtekst hver video, at vi efter at http://www.youtube.com/googledevelopers. De fleste af de år, det er en smuk nem ting at holde op med. Men sidste år, hvor vi sendt alle de videoer, Google I / O 2009, det tog os flere måneder at få alting gjort.

I år har vi udførligt alt inden for 24 timer eller mindre af de videoer går live. Jeg er spændt over det, fordi det ikke ville have været muligt uden det nye auto-billedtekst og auto-timing funktioner i YouTube. Vi gjorde også noget lidt nørdet - vi brugte fire forskellige metoder til billedtekster.

Hvis du bruger YouTube til at dele samtaler fra din egen developer begivenheder, kan du finde denne oversigt nyttige.

De to hurtigste muligheder for produktion og rensning af vores billedtekster anvendes auto-timing. Vi har uploadet en udskrift og havde YouTube's talegenkendelse beregne timecodes for os.

De to auto-timing metoder var:

CART live real-time udskrift + auto-timing
Fordi vi havde professionelle real-time transcriptionists på I / O, kunne vi straks billedtekst noget, der havde en levende samling udskrift. Sådan fik vi keynotes udførligt på dagen for begivenheden. Vi har også brugt denne metode til android samtaler.

Professionel transkription + auto-timing
Det var billigere end CART, og hurtigere end fuld billedtekster med timecodes, men langsommere end real-time transkription, fordi vi var nødt til at få video filer til transcribers.

Selv om disse metoder blev hurtigste, auto-timing viste sig ikke at være perfekt til alle videoer. Når mic kvalitet ændres, eller vi havde alt for mange taler forandringer i en kort periode (f.eks paneldiskussioner eller kaminen chats), timing tider gled ud af sync. Du kan stadig bruge Interactive Transcript at se, hvad der blev sagt, men det er ikke ideel.

De to langsommere metoder, vi brugte, var:

Pure "traditionelle" billedtekster
Det er, hvad vi gjorde sidste år for Google I / O 2009 videoer. Det er langsommere og dyrere, fordi du er nødt til at omskrive og indstille alle timecodes korrekt. Men det endelige resultat er 100% præcist timede. Vi gjorde det at fastsætte en video, at de auto-timing havde en masse problemer med.

Talegenkendelse (auto-beskrivelser) med menneskelige oprydning og redigering
Det gav os perfekt timecodes, ligesom traditionelle billedtekster, og tog mindre tid end traditionelle billedtekster. Det tog lidt længere end auto-timing alene, fordi vi var nødt til at hente maskinen genereret auto-billedtekster fra YouTube til at gøre det redigeringer.

Automatisk billedtekster er fantastisk, hvis du ikke har tid eller budget til at sætte noget arbejde i din billedtekster. Men for I / O, vi ønskede vores billedtekster at være perfekt på tekniske termer, så fuldautomatisk billedtekster var ikke den bedste pasform.

Ikke alle disse metoder er lige med hensyn til kvalitet, men det er interessant at sammenligne. For at se hvilken metode blev anvendt på en video, søge efter sporet navn i billedteksten menuen. At sammenligne ejer-uploaded billedtekster med ren maskine-genererede auto-billedtekster, kan du altid vælge 'omskrive Audio' fra billedtekst menu for vores videoer.

Hvis du gerne vil bidrage til at forbedre billedtekst kvalitet, kan du se en video og udfylde vores billedtekst undersøgelse for at fortælle os, hvad du synes om disse billedtekster! Vi kender nogle af dem vil være lidt off - hvis du rapporterer problemer, vil vi rette dem.

Ved Naomi Bilodeau, Developer Google Planer