pdf viewer in mvc 4 : Cut and paste pdf image software control cloud windows web page html class SuperMag_2010_issue_416-part1587

SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
161
anything. On my laptop, this process moved 
slightly faster than real time. 
After consolidating, edit as you normally would.
STEP 7-10 DSLR AND THE CANON 7D
7KH©&DQRQ©'©KDV©WKUHH©KXJH©DGYDQWDJHV© 
It’s small, cheap to buy or rent, and has the ability 
WR©½W©PRVW©RI©&DQRQV´©IDQWDVWLF©SKRWR©OHQVHV©©
+RZHYHU©WKH©FRGHF©LW©XVHV©+ ©LV©D©/RQJ©*23©
FRPSUHVVHG©DQG©LV©WKXV©D©GLI½FXOW©FRGHF©WR©HGLW©
with. This is mainly because only two real frames 
are recorded per second (subject of another 
article). Furthermore, the camera is shooting at the 
extremely high bit rate of almost 50Mbps. By 
FRPSDULVRQ©D©VWDQGDUG©GH½QLWLRQ©'9'©KDV©D©PD[©
ELW©UDWH©RI©0ESV©$W©WKH©WLPH©RI©WKLV©ZULWLQJ©+ ©
is not a supported codec for AMA. Accordingly, the 
½OH©PXVW©EH©WUDGLWLRQDOO\©LPSRUWHG
However, if your goal is simply to view the footage, 
RSHQ©LW©IURP©WKH©½QGHU©OHYHO©DQG©KLW©SOD\
INSTANT DAILIES DSLR 
Be diligent in how you organize this media and 
make sure to copy it to a second hard drive! 
7,3««+«WDNHV«D«WRQ«RI«SURFHVVLQJ«SRZHU«WR«SOD\«
back in QuickTime by itself, regardless of what 
editing system you are using. Most times 
shrinking the image size will get rid of the 
stuttering playback in QT. 
ORGANIZED 7D MEDIA
7D SET UP ON SANDBAG
7D CLOSE UP ON SANDBAG
Cut and paste pdf image - copy, paste, cut PDF images in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Detailed tutorial for copying, pasting, and cutting image in PDF page using C# class code
copy images from pdf; cut and paste image from pdf
Cut and paste pdf image - VB.NET PDF copy, paste image library: copy, paste, cut PDF images in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
VB.NET Tutorial for How to Cut or Copy an Image from One Page and Paste to Another
copy image from pdf preview; copy paste picture pdf
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
162
6WHS© ©,PSRUWLQJ©47©½OHV©RXW©RI©WKH©³'&,0´©LV©QRZ©
DV©VLPSOH©DV©)LOH!/LQN©WR©$0$©)LOH V ©
Note: When dealing with many cards, I recommend 
using AMA and then consolidating to DNxHD 110 (or 
higher) so that you can use this high quality import 
as your “online” media later for color correction.
FINAL THOUGHTS
For those editors who wish to make just a few 
quick cuts, use AMA to edit directly without 
bothering to consolidate. There is no problem if 
\RX©DUH©GHDOLQJ©ZLWK©õ©FDUGV©ZRUWK©RI©IRRWDJH© 
%\©FRPSDULVRQ©RQH©IHDWXUH©WKDW©,©HGLWHG©XVHG©©
P2 loads worth of footage. Consolidating takes 
time, AMA doesn’t.
7KH©KXJH©DGYDQWDJH©RI©WKH©;'&DP©LV©WKDW©\RX©ZLOO©
have a disc to walk away with, which offers great 
peace of mind. The discs are relatively cheap at 
$25 for a 45 minute load.
6NLS©WKH©RI¾LQHõRQOLQH©ZRUN¾RZ©LI©\RX©FDQ ©(GLW©LQ©
native high resolution material and output to QT 
½OHV©2QO\©JR©WR©WDSH©LI©\RX©JHW©GLVWULEXWLRQ©DQG©
need it.  
Once you get to post and time is a little more 
relaxed, it’s worth spending some time script 
syncing your dailies, especially on long projects.  
On Handicapped John, we didn’t have a script 
supervisor, so having a record of the coverage is 
invaluable. Besides it’s cool. I’ve included a picture 
just to show it off. 
Good luck and have fun shooting!  
We love this job!
MISHA TENENBAUM
LV©D©½OP©DQG©WHOHYLVLRQ©HGLWRU©
living and working in Los Angeles. He is currently 
editing the pilot for a new television series called, 
“Handicapped John.” In addition, he trains and 
consulting on both Avid and Final Cut Pro. 
Recently Misha edited the romantic comedy 
“Immigration Tango,” which is set to premiere at 
the Boston International Film Festival this April.
A transplant from Boston himself, Misha moved to 
/$©LQ© ©DQG©KDV©VLQFH©EHFRPH©DQ©$SSOH©
&HUWL½HG©)LQDO©&XW©3UR©,QVWUXFWRU©DV©ZHOO©DV©DQ©$YLG©
&HUWL½HG©8VHU©+H©ZDV©RQO\©WKH© WK©SHUVRQ©QDWLRQ©
ZLGH©WR©EHFRPH©D©FHUWL½HG©XVHU©RI©$YLG´V©0HGLD©
Composer software. He has also been featured at 
the LA, FCP User Group community during a 
segment called, ‘stump the guru’s’ where he 
answers audience questions.
In the recent past, Misha edited various TV shows 
including “Off-Road Adventures” airing on the 
Outdoor Channel and “Super Bikes!” airing on 
the Speed Channel. He also edited news footage  
RI©WKH©*©VXPPLW©DQG©WKH© ©/RQGRQ©ERPELQJV©
for Bright Entertainment Network in London, 
England. He worked as an S&P editor Technicolor 
Creative Services.
AVID SCRIPT SYNC
C# PDF Page Extract Library: copy, paste, cut PDF pages in C#.net
C#.NET PDF Library - Copy and Paste PDF Pages in C#.NET. Easy to C#.NET Sample Code: Copy and Paste PDF Pages Using C#.NET. C# programming
paste jpg into pdf; how to copy image from pdf file
VB.NET PDF Page Extract Library: copy, paste, cut PDF pages in vb.
Dim page As PDFPage = doc.GetPage(3) ' Select image by the New PDFDocument(filepath) ' Copy the first page of PDF document. VB.NET: Copy and Paste PDF Pages.
how to copy pictures from a pdf document; how to copy pictures from pdf
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
163
:KHQ«,«¿UVW«VWDUWHG«LQ«YLGHR«SURGXFWLRQ«±«FORVH«
to a thousand years ago (well, close enough to 
30 to not make much difference) it was well 
before non-linear editing. It was the era of ¾" 
SRUWD÷SDFNV«IRU«¿HOG«SURGXFWLRQ«DQG«PRUH«ö «
decks for mastering. The one thing I very 
quickly learnt was to log my tapes. It was a real 
chore to have to load up a tape, shuttle forward 
DQG«WU\«WR«¿QG«D«VKRW «'D\V«DQG«ZHHNV«ZRXOG«EH«
lost without good log notes, so the lesson came 
home early.
I would assiduously log every shot with the type  
of shot, any zoom, what was in the shot, start 
Timecode and a ranking of the shot’s quality.  
7KDW©ZD\©,´G©NQRZ©ZKLFK©VKRWV©WR©XVH©½UVW©DQG©
which shots weren’t up to quality, unless 
absolutely required. Since these log notes took 
some time to generate, they were very valuable 
asset for the production. Eventually I developed  
a system to store the log notes with the source 
tapes so they were kept together (in large zip  
lock document packages). I think this was my 
½UVW©XVH©RI©D©±VLGHFDU«¿OH” to store metadata!  
My “sidecar” pages of notes was always kept  
with the tape it logged.
NO EDIT EVER STARTED WITHOUT COMPREHENSIVE LOG NOTES 
(MY ACTUAL EDIT BAY FROM MID 1983!)
At that time I didn’t realize I was creating metadata 
ZLWK©P\©ORJ©QRWHV©EXW© ©\HDUV©ODWHU©,©UHDOL]H©WKDW©
I’ve been a metadata fan for just about all of my 
production life. Unlike most people in the world, I 
like to think about metadata. A lot. To the extent 
that I’ve been described as a “one man metadata 
think tank” – probably because there isn’t a second 
person willing to join the “think tank!”
Like me, you’ve been using metadata all your 
production career even if you may not have used 
that term to describe it! If you’ve ever slid a sheet 
of paper with some notes on it into a tape case,  
or named a reel in an edit system or relied on 
Timecode, you already know the importance of 
WKDW ©PHWDGDWD©LQ©SRVW©SURGXFWLRQ©ZRUN¾RZ
,I©\RX´YH©HQWHUHG©GHVFULSWLRQV©LGHQWL½HG©SHRSOH´V©
names in a clip note or entered any other logging 
information, you’ve worked with metadata.  
If you’ve worked with any form of transcription, 
again you’ve worked with metadata.
,I©\RX´YH©XVHG©)LQDO©&XW©3UR´V©6WDUW 6WRS©GHWHFWLRQ©
\RX´YH©XVHG©D©PHWDGDWDõEDVHG©DXWRPDWLF©ZRUN¾RZ©
EHFDXVH©'9©6WDUW 6WRS©GHWHFWLRQ©XVHV©WKH© KLGGHQ ©
time-of-day Timecode to determine where the 
camera started and stopped. 
DV START/STOP DETECTION USES HIDDEN TIME-OF-DAY TIMECODE 
TO BREAK A DV CLIP INTO SEGMENTS
0HWDGDWD©¯©GDWD©DERXW©WKH©DFWXDO©PHGLD©½OH©¯©LV©
XVHIXO©:LWK©WKH©DGYHQW©RI©QRQõWDSH©ZRUN¾RZV©DQG©
more inherent metadata tracked from the source, 
metadata is becoming more powerful.
But powerful for what? 
The most obvious uses of metadata are the 
mundane: logging tapes; tracking usage; ensuring 
audio and video stay in sync; tracking versions; 
generating reports; etc. It’s not hard to predict this 
future for metadata as most of it is already being 
done in production.
What is much more exciting is the “magic” future 
for metadata. The right metadata with the right 
The Mundane and Magic Future of Metadata
Take the Tedium Out of Editing to Be Creative
PHILIP HODGETTS
C# PDF remove image library: remove, delete images from PDF in C#.
document page. Able to cut and paste image into another PDF file. Export high quality image from PDF document in .NET program. Remove
copying image from pdf to powerpoint; how to copy an image from a pdf file
C# PDF Convert to Images SDK: Convert PDF to png, gif images in C#
Converter control easy to create thumbnails from PDF pages. Selection for compressing to multiple image formats. Cut and paste any areas in PDF pages to images.
how to copy pdf image into powerpoint; how to copy image from pdf to word
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
164
algorithms will speed the work of post-production, 
reduce the mundane components and allow 
skilled editors to concentrate on polishing and 
improving the edit. In our company we call this 
“Assisted Editing.” The computer is assisting in the 
editing process in ways it hasn’t done previously. 
7KLV©LV©WKH©½UVW©UHDO©LQQRYDWLRQ©LQ©HGLWLQJ©
WHFKQRORJ\©VLQFH©WKH©UHOHDVH©RI©WKH©½UVW©PDVVõ
market Non-Linear Editor around 20 years ago 
with Avid’s introduction of Media Composer 
version 1.
$Q\RQH©DSSURDFKLQJ©WKDW©½UVW©YHUVLRQ©RI©0HGLD©
&RPSRVHU©ZLWK©©ELW©  ©JUD\ ©³FRORU´©RQ©D©  ©[©
120 screen would have to have wondered what 
the fuss was all about. Non-Linear certainly didn’t 
seem to be set to replace the existing paradigm of 
the day. Now, 20 years later, we routinely edit HD 
on laptops with portable storage with amazing 
DPRXQWV©RI©¾H[LELOLW\©DQG©SRZHU©DW©RXU©½QJHUWLSV
&RQVLGHU©WKHQ©WRGD\´V©½UVW©GDEEOLQJ©LQ©PHWDGDWDõ
PDQDJHG©ZRUN¾RZV©¯©VXFK©DV©RXU©)LUVW©&XWV©6WXGLR©
software – as being that early indicator of the 
potential: as Media Composer 1 was to Non-Linear 
Editing First Cuts is to Assisted Editing.
Imagine dailies coming from a set that where 
DXWRõHGLWHG©LQWR©D©½UVW©DVVHPEOH©EDVHG©RQ©WDNHV©
that were being marked “good²©LQ©WKH©½HOG©
Alternate takes could be carried in Multiclips, 
much the way they are now with ScriptSync in 
Media Composer 4. If we could combine the 
transcription capability of Adobe’s CS4 apps (with 
improved accuracy in the future) with Avid’s 
6FULSW6\QF©DQG©WDJJHG©WDNHV©½UVW©DVVHPEO\©ZRXOG©
take minutes and be done without human action.
With appropriately tagged material you can 
already explore long-form documentary material 
as fully edited stories (with B-roll and lower thirds) 
LQVWHDG©RI©ZRUNLQJ©FOLS©E\©FOLS©WR©½QG©WKH©VWRULHV©
available in the source. Right now much of that 
metadata has to be entered manually, but imagine 
a few years down the track when there’s  
automatic transcription; keyword generation; 
image recognition (at least of people); location 
tracking via GPS, and it’s entirely reasonable  
WR©FRQVLGHU©WKH©½UVW©YLHZLQJ©RI©WKH©VRXUFH©DV© 
rough edited sequences. (First Cuts produces 
technically competent stories but even I would 
admit that they lack the soul and heart that a  
true editor brings.)
In talking about how they manage metadata 
Adobe refers to “adding intelligence to media,” 
but they really mean “maintaining metadata” 
because data is not intelligence. Metadata is an 
input to intelligent algorithms that manipulate the 
data in useful ways. It is the generation of those 
algorithms that will see the greatest development 
in the near future as most routine editing – and 
pre-editing preparation – becomes automated 
with new software tools.
In the rest of this article I want to explore how 
metadata is tracked in the tools we use and to 
explore the six distinct types of metadata I’ve 
LGHQWL½HG©DQG©H[SODLQ©KRZ©WKH\©ZLOO©EH©XVHG©WR©
transform post-production.
STORING AND MAINTAINING METADATA
AAF and MXF are about metadata more  
than media.
One of the things that distinguished Avid’s Open 
Media Framework – OMF – from AVI and 
4XLFN7LPH©½OHV©ZDV©WKDW©LW©FRQWDLQHG©PHWDGDWD©
DQG©FDUULHG©LW©ZLWKLQ©WKH©½OH©:KHQ©$YLG©IHOW©WKDW©
20)©ZDV©DSSURDFKLQJ©WKH©HQG©RI©LWV©RI½FLDO©OLIH©
they started a process within SMPTE for a more 
advanced format. The result was AAF – the 
Advanced Authoring Format.
AAF is designed to comprehensively track all 
PHWDGDWD©DQG©XVDJH©IRU©DQ\©VSHFL½F©PHGLD©½OH© 
,Q©$$)©SDUODQFH©D©PHGLD©½OH© EH©LW©½OP©GDWD©RU©
videotape) is called “essence” to distinguish it  
IURP©WKH©PHWDGDWD ©,Q©WKHRU\©DQ©$$)©½OH©FDQ©EH©
completely independent of the essence as long  
DV©WKH©$$)©½OH©NQRZV©ZKHUH©WKH©HVVHQFH©UHVLGHV©
All changes to, and use of, the essence is tracked  
LQ©WKH©$$)©½OH
Despite wide support for the new standard within 
the organizing body and its participating 
members, AAF has not become the ubiquitous 
exchange format it was designed to be.
However a spin-off – subset actually – of the AAF 
IRUPDW©LV©WKH©PRUH©FRPPRQ©0;)©RU©0DWHULDO©
H;FKDQJH©)RUPDW ©0;)©FDUULHV©D©VXEVHW©RI©WKH©$$)©
metadata, technically known as the “Zero 
Divergence Directive” – but that’s not important 
right now. (While it sounds like an episode of The 
Big Bang Theory, all it really means is that 
manufacturers can’t deviate from the standard, 
which is a good thing.) What is important is that it 
gives the industry a standard format for media and 
metadata together. Panasonic’s P2 Media (DVCPRO 
+'©DQG©$9&õ, ©DQG©6RQ\´V©;'&$0©(;©VWRUH©PHGLD©
DQG©PHWDGDWD©LQ©WKH©0;)©IRUPDW
MXF IS THE MEDIA-CENTRIC SUBSET OF AAF
C# PDF Image Extract Library: Select, copy, paste PDF images in C#
PDF ›› C# PDF: Extract PDF Image. How to C#: Extract Image from PDF Document. Support PDF Image Extraction from a Page, a Region on a Page, and PDF Document.
copying a pdf image to word; copy image from pdf to word
VB.NET PDF Image Extract Library: Select, copy, paste PDF images
Home ›› XDoc.PDF ›› VB.NET PDF: Extract PDF Image. Support PDF Image Extraction from a Page, a Region on a Page, and PDF Document in VB.NET Project.
copy and paste image from pdf to pdf; how to copy an image from a pdf
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
165
$YLG©DOVR©DGRSWHG©0;)©DV©WKHLU©QDWLYH©±HD” media 
format to replace the less capable OMF format. 
(Ironically, the OMF format has been much more 
widely supported and popular since it’s been 
RI½FLDOO\©±dead” than it was as an Avid media 
IRUPDW  ©6LQFH©0;)©LV©D©QDWLYH©$YLG©IRUPDW©LW´V©QRW©
entirely surprising that the latest versions of Media 
&RPSRVHU©VXSSRUW©0;)©PHGLD©GLUHFWO\©IURP©WKH©
source via the Avid Media Architecture – AMA.
Avid and Premiere Pro support project interchange 
via AAF and Premiere Pro also works natively with 
0;)©PHGLD ©8QIRUWXQDWHO\©$GREH©WRRN©D©GLIIHUHQW©
path to managing metadata throughout its 
SURGXFW©OLQH©E\©FUHDWLQJ©WKH©;03©±format²©;03©
HPEHGV©WKH©PHWDGDWD©LQ©WKH©½OH©LI©LW©FDQ ©1RW©DOO©
PHGLD©½OH©IRUPDWV©DUH©H[WHQVLEOH©VR©IRU©WKRVH©
IRUPDWV©WKH©PHWDGDWD©LV©FDUULHG©LQ©D©VHSDUDWH©½OH©
known as a “VLGHFDU«¿OH” because it resides in the 
VDPH©IROGHU©DV©WKH©PHGLD©½OH©ZLWK©WKH©VDPH©QDPH©
but a different extension (Remember my sealed 
wallet with tape and log notes stored together? 
This is the same idea in digital form.).
Sadly, the nice thing about standards is that there 
DUH©VR©PDQ\©RI©WKHP ©$V©ZHOO©DV©$$)©0;)©DQG©;03©
we have QuickTime Metadata. 
QUICKTIME METADATA
Apple added support for QuickTime Metadata in 
my all-time favorite Final Cut Pro release: 5.1.2!  
Yes, this dot dot release added an extraordinary 
number of major new features for such an 
undersold release: QT Metadata, Apple Event 
support (used, for example, in PluralEyes) and 
more. Core to this article is the introduction of 
QuickTime Metadata, which allows Metadata to  
EH©FDUULHG©ZLWKLQ©WKH©PHGLD©½OH
Apple now retain all the source metadata from 
QRQõWDSH©IRUPDWV©OLNH©3©;'&$0õ(;©DQG©5('©
when imported via Log and Transfer. This source 
PHWDGDWD©LV©VWRUHG©LQ©WKH©)LQDO©&XW©3UR©3URMHFW©½OH©
DQG©H[SRUWHG©LQWR©WKH©;0/©ZKHQ©;0/©LV©H[SRUWHG©
The only thing you can’t do with QuickTime 
metadata is to view it inside Final Cut Pro! (That is, 
without a tool like our miniME.) One has to 
presume that Apple have future plans to expose 
this metadata inside Final Cut Pro, but there have 
been no announced plans. 
EACH FORMAT HAS IT’S OWN QUICKTIME METADATA,  
DISPLAYED HERE IN MINIME
There is an amazing amount of metadata stored 
from P2 Media (DVCPRO HD, AVC-I), and much the 
same from their AVCCAM media on SD card; 
;'&$0©(;©SURYLGHV©UHODWLYHO\©OLWWOH©PHWDGDWD ©
From the RED camera we are richly blessed with 
DOPRVW©HYHU\©PHWDGDWD©½HOG©\RX©FRXOG©LPDJLQH ©
1RW©DOO©PHWDGDWD©½HOGV©DUH©½OOHG©IURP©WKH©FDPHUDV©
yet. Panasonic have “slots” for Latitude and 
Longitude in DVCPRO HD, AVC-I and AVCCAM 
formats but only one high end camera records that 
data – at this point.
You can explore this metadata in Log and Transfer 
by right-clicking on the column headers and 
selecting “Show All Columns.” After Log and 
7UDQVIHU©\RX©FDQ©H[SRUW©WKH©;0/©IRU©WKH©FOLSV© 
from Final Cut Pro and use miniME to export the 
QuickTime metadata to an Excel spreadsheet  
(free in the demo version).
FINAL CUT PRO IMPORTS AND STORES METADATA FROM CAMERAS 
VIA LOG AND TRANSFER
So, all major media wrappers in professional video 
use carry metadata, but what types of metadata 
are there and how might they be used?
THE SIX TYPES OF METADATA
In May 2009 I experienced an iPhoto disaster. One 
day I opened my iPhoto library and it was empty. 
Gone. None of the repair routines worked at all. 
The good news is that all my images were intact. 
The bad news was that all the metadata not stored 
in digital images was gone. I had been scanning in 
thousands of slides, negatives and prints from my 
– and my family’s – archive. All date, name, event, 
place and comment notation was gone. 
I had all my data but without the metadata it was 
almost useless. Some data came from the source 
when the images were digital: for those I had date 
information, from which event information could 
be derived. 
What I learnt from the incident was yet another 
lesson on the value of metadata (and backing up!) 
It also set me thinking about the types of 
metadata I was entering. I guess 90 hours of 
sorting thousands of images into some cohesive 
form gave me some focus. 
I’d already been exposed to the concept of 
“Implicit and Explicit” metadata: these are common 
terms when discussing metadata on the Internet. 
Explicit metadata in that context is derived from 
an action by the user that creates an immediately 
VB.NET PDF url edit library: insert, remove PDF links in vb.net
position, such as PDF text, image and PDF table. Delete or remove partial or all hyperlinks from PDF file in VB.NET class. Copy, cut and paste PDF link to
how to copy and paste a pdf image into a word document; how to copy pictures from pdf to word
How to C#: Basic SDK Concept of XDoc.PDF for .NET
s), and add, create, insert, delete, re-order, copy, paste, cut, rotate, and And PDF file text processing like text writing, extracting, searching Image Process.
cut and paste pdf images; how to copy text from pdf image
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
166
LGHQWL½DEOH©SLHFH©RI©PHWDGDWD©,I©\RX©GR© 
things like:
ɻ©
Rate a video on YouTube (you generate  
rating metadata);
ɻ©
Rate a song in your music player library (you 
generate a metadata rating in your library);
ɻ©
Add a vote for a site on Digg (Vote count 
metadata); or
ɻ©
Enter log notes for a clip (Logging metadata),
ɻ©
Then you’re generating Explicit metadata. 
ɻ©
Implicit metadata is derived when you do 
something that doesn’t seem like it’s generating 
metadata, such as:
ɻ©
Watching a video on YouTube (view count 
metadata);
ɻ©
Buying a product on Amazon (sales and 
popularity metadata);
ɻ©
Skipping past a song on a music player because 
you don’t want to hear it (“like” metadata); or
ɻ©
Using a Clip in a Sequence (Clip usage metadata).
As I thought about how I needed to categorize my 
iPhoto library and thinking about metadata at the 
same time, I realized that, while implicit and 
explicit were useful when examining how 
metadata might be acquired, it really didn’t help 
describe what type of metadata we have available.
Despite that, implicit metadata “indeed kicks 
explicit’s *ss.” Explicit metadata takes work.  
Explicit metadata requires observation and 
analysis: stuff computers are good at that bores 
humans interested in emotion and story.
One of the greatest thing about digital (a.k.a. 
WDSHOHVV ©ZRUN¾RZV©LV©WKDW©ZH©VWDUWHG©WR©JHW©PRUH©
metadata from the cameras – right from the 
source. Just how much – and exactly what 
metadata – depends on the camera manufacturer.
There are more types of metadata than just what 
the camera provides and what an editor or 
assistant enters. Instead I think we’re better served 
dividing metadata into six distinct types: Source, 
Added, Derived, Inferred, Analytical and Transform. 
7KH©½UVW©IRXU©DUH©WKH©PRVW©XVHIXO©IRU©SRVWõ
SURGXFWLRQ©ZRUN¾RZV
SOURCE
6RXUFH©0HWDGDWD©LV©VWRUHG©LQ©WKH©½OH©IURP©WKH©
outset by the camera or capture software. It is 
usually immutable – you can’t change it (and you 
VKRXOGQ´W  ©:KHQ©\RX©XVH©'9©6WDUW 6WRS©GHWHFWLRQ©
or its equivalent on other platforms, you’re using 
6RXUFH©PHWDGDWD©LQ©WKLV©FDVH©6WDUW 6WRS©GHWHFWLRQ©
is sensing breaks in the time-of-day Timecode 
track – that’s generally hidden – and adding 
Markers when there is a discontinuity in that 
Timecode track. 
Other examples of type of Source metadata:
ɻ©
Timecode and timebase;
ɻ©
Date;
ɻ©
Reel name;
ɻ©
Codec;
ɻ©
File name;
ɻ©
Duration;
ɻ©
GPS data (latitude and longitude);
ɻ©
Focal length, aperture, exposure; and
ɻ©
White balance setting.
 INFORMATION ABOUT THE FORMAT IS SOURCE METADATA
By itself this metadata isn’t terribly useful. It’s what 
is done with it that’s important. Consider it a raw 
data input that can be then used to generate 
Inferred or Derived metadata. The raw data can 
also be an input for a smart algorithm to automate 
synchronizing of dual system audio and video, 
such as Avid’s AutoSync and our Sync-N-Link for 
)&3©RU©)LQDO©&XW©3UR´V©6WDUW 6WRS©GHWHFWLRQ
Because it’s important source metadata needs  
to be preserved throughout the process. Apple 
achieve this by writing the source metadata into 
4XLFN7LPH©0HWDGDWD©LQ©WKH©PHGLD©½OH©JHQHUDWHG©
by Log and Transfer. 
Source metadata is not exclusively electronic.  
,Q©½OP©WKH©RUGHU©RI©LPDJHV©DORQJ©D©QHJDWLYH©VWULS© 
is a form of source metadata that can’t be altered.
ADDED
Added Metadata is information that we just can’t 
get from the camera or capture software and has 
to come from a human. It can be added by a 
person on-set (e.g. Adobe OnLocation) or during 
the logging process. Examples:
ɻ©
Keywords or tags;
ɻ©
Comments or Log Notes;
ɻ©
Event name;
ɻ©
Person’s name;
ɻ©
Mark good;
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
167
ɻ©
Apply a label;
ɻ©
Enter an auxiliary timecode or copy it from 
somewhere else;
ɻ©
Manually transcribe speech (not done  
by software).
LOG NOTES NETERED IN THE NLE IS ADDED METADATA
One of the most exciting things I see in the future 
use of metadata in post production is that the 
amount of Added Metadata will be reduced and 
replaced with Derived and Inferred Metadata. 
Instead of a human needing to transcribe the 
VSHHFK©IURP©WKH©PHGLD©½OHV©LPSURYHG©VRIWZDUH©
will create a transcription as Derived metadata 
(Speech transcription technology will improve to 
the point where it’s possible to rely on it: it’s just 
not there yet.).
Facial recognition technology is also in its infancy. 
When fully matured we will be able to identify 
people or characters once and have them 
recognized and tagged across the entirety of the 
project. Like speech recognition, it’s not quite 
there yet.
Over time the amount of Added Metadata that’s 
required will be reduced, reducing the need for 
manual logging of clips.
Even the application of labels could be automated 
based on some Source parameter. A clip tagged as 
“good²©LQ©SURGXFWLRQ©FRXOG©KDYH©D©VSHFL½F©FRORU©
label applied to quickly identify it as a “good” take.
Neither Source nor Added Metadata are 
particularly new: they are the current “state of the 
art.” From here I start to focus more on the 
potential future use of metadata beyond where  
we are now.
In attempting to reconstruct my iPhoto library 
from a total loss of metadata last year, I found 
another valuable source of Added metadata: the 
notes people made on slides or on the back of 
prints. Kodak Australia for long periods of time 
printed the month and year of processing on the 
back, which was also a form of added (but source) 
metadata of the era.
In production terms, these are the script notes  
D©VFULSW©VXSHUYLVRU©RU©RQõVHW ORFDWLRQ©ORJJHU© 
will provide.
DERIVED
Derived Metadata is calculated using a non-human 
external information source. It takes the Source 
metadata (preferably) or Added metadata and 
uses software algorithms or web APIs (Application 
Programming Interface – a way of accessing a web 
application from another application) to take the 
basic facts and generate useful information. 
Examples:
ɻ©
Speech recognition software can produce  
a transcription;
ɻ©
A language algorithm can derive keywords from  
a transcription;
ɻ©
Locations can be derived from GPS data using 
mapping data (e.g. Eiffel Tower, Paris, France)  
or even identifying whether somewhere is in  
a city or the country;
ɻ©
Facial recognition (with the limitation that the 
same face may be recognized, but at least one 
time the name will have to be provided as Added 
metadata entered by a person);
ɻ©
Recalculation of duration when video and audio 
have different timebases;
ɻ©
OCR (Optical Character Recognition) of text 
within a shot.
 TODAY GOOGLE’S MAPPING API CAN TAKE LATITUDE AND LONGI-
TUDE INFORMATION AND GIVE US STREET ADDRESS AND IDENTIFY 
THE LOCATION AS A CHURCH
One excellent use of Derived metadata is Singular 
Software’s PluralEyes, which examines the audio 
waveforms from multiple sources and derives 
synchronization metadata from the waveform 
data. PluralEyes uses this metadata to synchronize 
multiple cameras or make multiclips from the 
synchronized cameras, thanks to skillful 
interpretation of source metadata: the waveforms 
in this example.
In reconstructing my iPhoto library I upgraded to 
iPhoto 09 predominantly on the promise of facial 
UHFRJQLWLRQ ©+DYLQJ©LGHQWL½HG©DOO©P\©IDPLO\©DQG©
friends once – in comments – I was hoping to 
reduce the workload the second time round. That’s 
how I learnt that these type of technologically 
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
168
derived pieces of metadata are still in the earliest 
stages, but the potential is obvious.
While neither speech recognition nor facial 
recognition technologies are quite “there yet” 
for production purposes, GPS to location and OCR 
technologies are well proven and ready to be 
applied to production software. As the tools for 
deriving metadata get better, there is huge 
SRWHQWLDO©WR©DXWRPDWH©SRVWSURGXFWLRQ©ZRUN¾RZV©
As we get more tools for deriving the metadata we 
get more options for building on the basic Source 
metadata and make it more valuable.
INFERRED
Inferred Metadata is metadata that can be 
assumed from other metadata without an external 
information source. It may be used to help derive 
what would otherwise have to be Added 
metadata. Examples: 
By examining both time of day of the shots and 
*36©GDWD©VRIWZDUH©FDQ©JURXS©½OHV©WKDW©ZHUH©VKRW©
at the same location during a similar time period 
to make an event (If this event is given a name,  
the name is Added metadata, but with software 
assisted editing it only needs to be added once  
for the event, not to each clip.).
WITH THE CURRENT STATE-OF-THE-ART IPHOTO NEEDS HELP IDEN-
TIFYING WHAT IS AN EVENT
If the time of day timecode for a series of shots is 
within a relatively continuous period, but over 
closely spaced locations, and then there is a big 
gap until the next time of day timecode, it can be 
assumed that those shots were made together at a 
series of related events (and if they are named, this 
would Added metadata).
,I©D©*36©FRõRUGLQDWH©LV©LGHQWL½HG©DV©D©FKXUFK©DQG©
it’s a weekend afternoon, we can infer that the 
event is likely a wedding (See a more detailed 
example of how inferred metadata would more 
accurately identify a wedding a little further on in 
the article.).
One way that Intelligent Assistance uses Inferred 
metadata is in our Sync-N-Link software, which 
batch merges dual system audio and video using 
matching Timecode. However free run Timecode 
(a.k.a. “Time of Day” Timecode) comes around 
every day, making it harder to determine which 
audio clip goes with the matching video for a 
multi-day shoot. Sync-N-Link uses the Bin structure 
and the relative proximity of video and audio clips 
to infer which audio and video clips match.
Inferred metadata requires some computation 
“smarts” but essentially applies high quality “rules 
of thumb” to the construction of meaning from 
source or derived metadata.
BRINGING IT TOGETHER
With just these four types of metadata, imagine 
WKLV©VFHQDULR©IRU©D©GRFXPHQWDU\©ZRUN¾RZ
All interviews are transcribed by speech 
recognition software;
The transcriptions are analyzed and divided into 
logical “takes” – an answer to a question or one  
of the paragraphs of the answer. 
From the transcription we can infer (see next 
section) that the person (voice) with the least 
amount of transcription is asking the questions 
and the voice with the greater amount of 
transcription is answering.
Using facial recognition software the person  
is matched to all other interviews or shots with 
that person. All that is required from a human is 
the one-off input of the person’s name, which  
will provide us with the information we need  
to automatically generate lower third  
LGHQWL½FDWLRQ©WLWOHV
8VLQJ©WKH©SDUDJUDSK VSHDNHU©EUHDNV©WKH 
source could be broken into subclips, dropping 
the speaker with the least contribution to  
the transcription.
For each subclip now created Keyword Extraction 
technology derives “story keywords” to summarize 
the content into something more useful for an 
editing algorithm (Keyword extraction technology 
is already well proven in the knowledge 
PDQDJHPHQW OLEUDU\©LQGXVWULHV  ©
Locations are all generated from the GPS data 
stored by the camera. There are several GPS to 
VWUHHW©DGGUHVV ORFDWLRQ©$3,V©DOUHDG\©DYDLODEOH©RQ©
the internet.
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
169
Google’s location API also reports businesses or points of interest at a 
particular location, so instead of street address, the GPS data can be used 
to derive the business at a location. This then can be used to infer the 
purpose of the video (If the inferred event was in a Church and it was a 
weekend afternoon, it would be reasonable to infer that this would be a 
wedding. Additional GPS and time data that places the most recent 
event at a residential address, and a subsequent event at a reception 
venue or hotel and the inference of a wedding is complete.). This type of 
derived and inferred knowledge would then be used to choose the most 
appropriate editing algorithm for this type of edit.
Location information would also be useful in identifying appropriate 
B-roll for interview shots, that is based on location proximity (Not all 
B-roll is location based, but some is.).
All this data could be fed into an improved version of our First Cuts for 
FCP algorithm to generate edits that have story arc, B-roll and lower  
WKLUG©LGHQWL½FDWLRQV
6LPLODUO\©LPDJLQH©D©VFULSWHG©SURMHFW©¯©½OP©RU©WHOHYLVLRQ
*RRG©WDNHV©DUH©WDJJHG©LQ©WKH©½HOG©ZLWK©D©±JRRG²©PHWDGDWD©WDJ
The shots are transcribed and matched with the script  
(similar to Avid’s ScriptSync).
All takes of a section of script are built into multiclips, with the marked 
“good” takes the active clip in the multiclip (or if there is more than one 
“good²©WDNH©DV©WKH©½UVW© ©©RU©©DQJOHV©LQ©WKH©PXOWLFOLS  ©7DNHV©QRW©
marked “good” could be optionally included in the multiclip.
Based on the script and the marked good takes the multiclips are 
DVVHPEOHG©LQWR©D©½UVW©DVVHPEO\
7KHQ©WKH©HGLWRU©WDNHV©WKH©½UVW©DVVHPEO\©DQG©ZRUNV©WKHLU©PDJLF©RQ©LW©
Taking the raw stone and polishing it into a sparkling gem.
These two scenarios are just a hint of what could be achieved with good 
metadata – source, added, derived and inferred – and some smart 
algorithms. Pre-edit postproduction will be revolutionized.
But these four are not the only types of metadata available to us.
SUPERMAG 
|
ISSUE N
O
|
LAS VEGAS 
|
APRIL 2010 
|
RETURN TO CONTENTS PAGE
170
ANALYTICAL METADATA
When working out what to name this next type of 
metadata I considered “Visually Obvious Invisible 
Metadata,” but really! So this next type of 
metadata I’ll call Analytical Metadata because it 
requires intelligent analysis of the images or clips 
WR©½QG©WKH©PHWDGDWD
Analytical metadata is encoded information in the 
picture about the picture: probably mostly related 
to people, places and context. The most obvious 
example is a series of photos without any event 
information, time or location metadata. By 
analyzing who was wearing what clothes and 
correlating between shots, the images related to 
an event can be grouped together even without 
an overall group shot. There may be only one shot 
WKDW©FOHDUO\©LGHQWL½HV©ORFDWLRQ©EXW©WKDW©LQIRUPDWLRQ©
can be cross-correlated to the other pictures in the 
group by clothing.
Similarly a painting, picture, decoration or 
architectural element that appears in more than 
one shot can be used to identify the location for all 
the shots at that event. I’ve even used hair styles as 
a general time-period indicator, but that’s not a 
YHU\©½QHõJUDLQHG©WRRO©+HFN©HYHQ©WKH©SUHVHQFH©RU©
absence of someone in a picture can identify a 
time period: if “that partner” is in the picture so it 
PXVW©EH©EHWZHHQ© ©DQG© 
$QDO\WLFDO©PHWDGDWD©LV©GH½QLWHO\©WKH©PRVW©
challenging to automate with a computer.  
Full, detailed visual recognition and the 
interpretive skills that go with it are still in its 
infancy. Scientists are working to teach computers 
How to recognize objects but I doubt these 
functions will be automated in my life.  
TRANSFORM METADATA
There was one other “metadata breakthrough” that 
came from my big “iPhoto disaster of 09.” It led to 
WKH©LGHQWL½FDWLRQ©RI©D©VL[WK©W\SH©RI©PHWDGDWD©
Transform metadata. 
Let me back up a minute and explain the 
inspiration. In earlier versions (before iPhoto 09 I 
think) corrections to images made in iPhoto 
created an updated copy, which became the 
source for the next round of corrections. There has 
always been the option to revert to the original 
image, but that would be starting over.
In iPhoto 09, if all corrections are done within 
iPhoto it’s tracked as live metadata. Crop an image 
and the original is always available to be 
uncropped. Ditto rotation and all image correction. 
Instead of starting over, you’re always working 
from the source, plus Transform metadata.
)RU©VSHHG©RI©GLVSOD\©L3KRWR©VWRUHV©D©¾DWWHQHG©
version of each photo, as well as all the 
PRGL½FDWLRQV©DV©OLYH©PHWDGDWD 
This set me thinking. The image was being stored 
as the original and then the display metadata is 
applied. Then it struck me that this was exactly 
ZKDW©KDSSHQV©ZLWK©UDZ©½OHV© OLNH©WKRVH©IURP©PRVW©
digital still cameras and the digital cinema RED 
camera). Raw images really need a Color Lookup 
Table (CLUT) before they’re viewable at all. An 
XQSURFHVVHG©5DZ©½OH©LV©YHU\©XQDSSHDOLQJ©WR©YLHZ© 
7KLV©LV©D©GLIIHUHQW©W\SH©RI©PHWDGDWD©WKDQ©WKH©½YH©
RWKHU©W\SHV©RI©PHWDGDWD ©0\©½UVW©LQVWLQFW©ZDV©WR©
call this Presentation Metadata – information on 
how to present the raw image. Greg (my partner) 
argued strongly that it should be Aesthetic 
IT TAKES PROCESSING OF GAMMA AND MATRIX TO GET THE SPECTACULAR RESULTS WE’RE USED TO 
FROM RED RAW. (THANKS TO GRAEME NATTRESS OF RED DIGITAL CINEMA FOR THE IMAGE.)
 NATIVELY RAW FILES ARE AESTHETICALLY UNPLEASING. 
Documents you may be interested
Documents you may be interested