c# pdf reader table : Delete pages of pdf software SDK dll windows wpf .net web forms SzeliskiBook_20100903_draft3-part603

1.1 What is computer vision?
9
The greatthing about these applications is that they are already familiar to most students;
they are, at least, technologies that students can immediately appreciate and use with their
own personal media. Since computer vision is a challenging topic, given the wide range
of mathematics being covered
4
and the intrinsically difficult nature of the problems being
solved, having fun and relevant problems to work on can be highly motivating and inspiring.
The other major reason why this book has a strong focus on applications is that they can
be used to formulate and constrain the potentially open-ended problems endemic in vision.
For example, if someone comes to me and asks for a good edge detector, my first question is
usually to ask why? What kind of problem are they trying to solve and why do they believe
that edge detection is an important component? If they are trying to locate faces, I usually
point out that most successful face detectors use a combination of skin color detection (Exer-
cise2.8) and simple blob features Section14.1.1; they do not rely on edge detection. If they
are tryingto match door andwindowedges ina building for the purpose of 3D reconstruction,
Itell them that edges are a fine idea but it is better to tune the edge detector for long edges
(see Sections3.2.3 and4.2) andlink them together into straight lines withcommon vanishing
points before matching (see Section4.3).
Thus, it is better to think back from the problem at hand to suitable techniques, rather
than to grab the first technique that you may have heard of. This kind of working back from
problems to solutions is typicalof an engineeringapproach tothestudyof vision and reflects
my own background in the field. First, I come up with a detailed problem definition and
decide on the constraints and specifications for the problem. Then, I try to find out which
techniques are known to work, implement a few of these, evaluate their performance, and
finally make a selection. In order for this process to work, it is important to have realistic test
data, both synthetic, which can be used to verify correctness and analyze noise sensitivity,
and real-world data typical of the way the system will finally be used.
However, this book is not just an engineering text (a source of recipes). It also takes a
scientific approach to basic vision problems. Here, I try to come up with the best possible
models of the physics of the system at hand: how the scene is created, how light interacts
with the scene and atmospheric effects, and howthe sensors work, including sources of noise
and uncertainty. The task is then to try to invert the acquisition process to come up with the
best possible description of the scene.
The book often uses a statistical approach to formulating and solving computer vision
problems. Where appropriate, probability distributions are used to model the scene and the
noisyimageacquisitionprocess. The associationof prior distributions withunknowns is often
Forafunstudentprojectonthistopic,seethe“PhotoBook”projectathttp://www.cc.gatech.edu/dvfx/videos/
dvfx2005.html.
Thesetechniquesincludephysics,Euclideanandprojectivegeometry,statistics,andoptimization.Theymake
computervision a fascinating field to study and a greatway to learn techniques widely applicable in otherfields.
Delete pages of pdf - remove PDF pages in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Provides Users with Mature Document Manipulating Function for Deleting PDF Pages
delete blank page in pdf; delete pages out of a pdf file
Delete pages of pdf - VB.NET PDF Page Delete Library: remove PDF pages in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Visual Basic Sample Codes to Delete PDF Document Page in .NET
best pdf editor delete pages; delete pages from a pdf
10
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
called Bayesianmodeling (AppendixB). Itis possible to associate a riskor loss functionwith
mis-estimating the answer (SectionB.2) and to set up your inference algorithm to minimize
the expected risk. (Consider a robot trying to estimate the distance to an obstacle: it is
usuallysafer tounderestimatethantooverestimate.) Withstatistical techniques, it often helps
to gather lots of training data from which to learn probabilistic models. Finally, statistical
approaches enable you to use proven inference techniques to estimate the best answer (or
distribution of answers) and to quantify the uncertainty in the resulting estimates.
Because so muchof computer vision involves the solution of inverse problems or the esti-
mation of unknown quantities, mybook alsohas a heavyemphasis onalgorithms, especially
those that are known to work well in practice. For many vision problems, it is all too easy to
come up with a mathematical description of the problem that either does not match realistic
real-world conditions or does not lend itself to the stable estimation of the unknowns. What
we need are algorithms that are both robust to noise and deviation from our models and rea-
sonablyefficient in terms of run-time resources andspace. Inthis book, I gointo these issues
in detail, using Bayesian techniques, where applicable, to ensure robustness, and efficient
search, minimization, and linear system solving algorithms to ensure efficiency. Most of the
algorithms described in this book are at a high level, being mostly a list of steps that have to
be filled in by students or by reading more detailed descriptions elsewhere. In fact, many of
the algorithms are sketched out in the exercises.
Now that I’ve described the goals of this book and the frameworks that I use, I devote the
rest of this chapter to two additional topics. Section1.2 is a brief synopsis of the history of
computer vision. It can easily be skipped by those who want to get to “the meat” of the new
material in this book and do not care as much about who invented what when.
The secondis an overview of the book’s contents, Section1.3, whichis useful reading for
everyone who intends to make a study of this topic (or to jump in partway, since it describes
chapter inter-dependencies). This outline is also useful for instructors looking to structure
one or more courses around this topic, as it provides sample curricula based on the book’s
contents.
1.2 A brief history
In this section, I provide a brief personal synopsis of the main developments in computer
vision over the last 30 years (Figure1.6); at least, those that I find personally interesting
and which appear to have stood the test of time. Readers not interested in the provenance
of various ideas and the evolution of this field should skip ahead to the book overview in
Section1.3.
C# PDF File & Page Process Library SDK for C#.net, ASP.NET, MVC
C# view PDF online, C# convert PDF to tiff, C# read PDF, C# convert PDF to text, C# extract PDF pages, C# comment annotate PDF, C# delete PDF pages, C# convert
acrobat export pages from pdf; add and delete pages in pdf online
C# PDF Page Insert Library: insert pages into PDF file in C#.net
how to merge PDF document files by C# code, how to rotate PDF document page, how to delete PDF page using C# .NET, how to reorganize PDF document pages and how
add and remove pages from pdf file online; delete page numbers in pdf
1.2 A brief history
11
Digital image processing
Blocks world, line labeling
197
Generalized 
cylinders
Pictorial structures
Stereo correspondence
Intrinsic images
Optical flow
Structure from motion
70
Image pyramids
Scale-space processing
Shape from shading, 
texture, and focus
Physically-based  modeling
1980
Regularization
Markov Random Fields
Kalman filters
3D range data processing
Projective invariants
1
Factorization
Physics-based vision
Graph cuts
Particle filtering
Energy-based segmentation
1990
Face 
recognition 
and 
detection
Subspace methods
Image-based modeling 
and rendering
Texture synthesis and inpainting
Computational photography
2000
Feature-based  recognition
MRF inference algorithms
Category recognition
Learning
Figure 1.6 A rough timeline of some of the most active topics of research in computer
vision.
1970s. Whencomputervisionfirststartedoutintheearly1970s, itwasviewedas s the
visual perception component of an ambitious agenda to mimic human intelligence and to
endow robots with intelligent behavior. At the time, it was believed by some of the early
pioneers of artificial intelligence and robotics (at places such as MIT, Stanford, and CMU)
that solving the “visual input” problem would be an easy step along the path to solving more
difficult problems suchas higher-levelreasoning and planning. According to one well-known
story, in 1966, Marvin Minsky at MIT asked his undergraduate student Gerald Jay Sussman
to “spend the summer linking a camera to a computer and getting the computer to describe
what it saw” (Boden2006, p. 781).5 We now know that the problem is slightly more difficult
than that.
6
What distinguished computer vision from the already existing field of digital image pro-
cessing (RosenfeldandPfaltz1966;RosenfeldandKak1976) was a desire to recover the
three-dimensional structure of the world from images and to use this as a stepping stone to-
wards full scene understanding. Winston(1975) andHansonandRiseman(1978) provide
two nice collections of classic papers from this early period.
Early attempts at scene understanding involved extracting edges and then inferring the
3D structure of an object or a “blocks world” from the topological structure of the 2D lines
(Roberts1965). Several line labeling algorithms (Figure1.7a) were developed at that time
(Huffman1971;Clowes1971;Waltz1975;Rosenfeld,Hummel,andZucker1976;Kanade
1980). Nalwa(1993)givesanicereviewofthisarea. Thetopicofedgedetectionwasalso
Boden(2006)cites(Crevier1993)astheoriginalsource.TheactualVisionMemowasauthoredbySeymour
Papert (1966) and involved awhole cohort ofstudents.
Toseehowfarroboticvisionhascomein thelastfourdecades,havealook atthetowel-foldingrobotat
http://rll.eecs.berkeley.edu/pr/icra10/(Maitin-Shepard,Cusumano-Towner,Leietal.2010).
VB.NET PDF Page Insert Library: insert pages into PDF file in vb.
Page: Insert PDF Pages. |. Home ›› XDoc.PDF ›› VB.NET PDF: Insert PDF Page. Add and Insert Multiple PDF Pages to PDF Document Using VB.
add or remove pages from pdf; delete a page from a pdf
VB.NET PDF Page Extract Library: copy, paste, cut PDF pages in vb.
C:\test1.pdf") Dim pdf2 As PDFDocument = New PDFDocument("C:\test2.pdf") Dim pageindexes = New Integer() {1, 2, 4} Dim pages = pdf.DuplicatePage(pageindexes
delete page pdf acrobat reader; add and delete pages from pdf
12
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
(e)
(f)
Figure 1.7 Some early (1970s) examples of computer vision algorithms: (a) line label-
ing (Nalwa1993)
c
1993 Addison-Wesley, (b) pictorial structures (FischlerandElschlager
1973) c 1973IEEE,(c)articulatedbodymodel(Marr 1982) c 1982DavidMarr,(d)intrin-
sic images (BarrowandTenenbaum1981)  c 1973 IEEE, (e) stereo correspondence (Marr
1982)
c
1982 David Marr, (f) optical flow (NagelandEnkelmann1986)
c
1986 IEEE.
an active area of research; a nice survey of contemporaneous work can be found in (Davis
1975).
Three-dimensional modeling of non-polyhedral objects was also being studied (Baum-
gart 1974; Baker 1977). Onepopularapproachusedgeneralizedcylinders, , i.e., solidsof
revolution and swept closed curves (AginandBinford1976;NevatiaandBinford1977), of-
ten arranged into parts relationships
7
(Hinton1977;Marr1982) (Figure1.7c). Fischlerand
Elschlager(1973)calledsuchelasticarrangementsofpartspictorialstructures(Figure1.7b).
This is currently one of the favored approaches being used in object recognition (see Sec-
tion14.4 andFelzenszwalbandHuttenlocher2005).
Aqualitative approach to understanding intensities and shading variations and explaining
them by the effects of image formation phenomena, such as surface orientation and shadows,
was championed byBarrowandTenenbaum (1981) in their paper on intrinsic images (Fig-
ure1.7d), along with the related 2
1
/
2
-D sketch ideas ofMarr(1982). This approach is again
seeing a bit of a revival in the work ofTappen,Freeman,andAdelson(2005).
More quantitative approaches to computer vision were also developed at the time, in-
cluding the first of many feature-based stereo correspondence algorithms (Figure1.7e) (Dev
7
In robotics and computeranimation, theselinked-partgraphsareoften called kinematic chains.
C# PDF Page Extract Library: copy, paste, cut PDF pages in C#.net
C#.NET PDF Library - Copy and Paste PDF Pages in C#.NET. Easy to C#.NET Sample Code: Copy and Paste PDF Pages Using C#.NET. C# programming
delete page in pdf; delete pages on pdf file
VB.NET PDF delete text library: delete, remove text from PDF file
VB.NET PDF - How to Delete Text from PDF File in VB.NET. VB.NET Programming Guide to Delete Text from PDF File Using XDoc.PDF SDK for VB.NET.
delete a page from a pdf without acrobat; add remove pages from pdf
1.2 A brief history
13
1974; Marr and Poggio 1976; Moravec 1977; Marr and Poggio 1979; Mayhew and Frisby
1981; Baker 1982; Barnard and Fischler 1982; Ohta and Kanade 1985; Grimson 1985; Pol-
lard, Mayhew, and Frisby 1985; Prazdny 1985)andintensity-basedopticalflowalgorithms
(Figure1.7f) (HornandSchunck1981;Huang1981;LucasandKanade1981;Nagel1986).
The early workinsimultaneously recovering3Dstructure and camera motion (see Chapter7)
also beganaround this time (Ullman1979;Longuet-Higgins1981).
Alot of the philosophy of how vision was believed to work at the time is summarized
in David Marr’s (1982) book.
8
In particular, Marr introduced his notion of the three levels
of description of a (visual) information processing system. These three levels, very loosely
paraphrasedaccording to my own interpretation, are:
 Computational theory: What is the goal of the computation (task) and what are the
constraints that are known or can be brought to bear on the problem?
 Representations and algorithms: How are the input, output, and intermediate infor-
mation represented andwhich algorithms are used to calculate the desired result?
 Hardware implementation: How are the representations and algorithms mappedonto
actual hardware, e.g., a biologicalvision system or a specialized piece of silicon? Con-
versely, how can hardware constraints be used to guide the choice of representation
and algorithm? With the increasing use of graphics chips (GPUs) and many-core ar-
chitectures for computer vision(see SectionC.2), this question is againbecomingquite
relevant.
As I mentioned earlier in this introduction, it is my conviction that a careful analysis of the
problem specification and known constraints from image formation and priors (the scientific
andstatistical approaches) mustbemarriedwith efficient and robustalgorithms (theengineer-
ing approach) to design successful vision algorithms. Thus, it seems that Marr’s philosophy
is as good a guide to framing and solvingproblems in our field today as it was 25 years ago.
1980s. Inthe1980s, alotofattentionwasfocusedonmoresophisticatedmathematical
techniques for performing quantitative image and scene analysis.
Image pyramids (see Section3.5) started being widely used to perform tasks such as im-
age blending (Figure1.8a) and coarse-to-fine correspondence search (Rosenfeld1980;Burt
and Adelson 1983a,b; Rosenfeld 1984; Quam 1984; Anandan 1989). Continuousversions
of pyramids using the concept of scale-space processing were also developed (Witkin1983;
Witkin, Terzopoulos, and Kass 1986; Lindeberg 1990).Inthelate1980s,wavelets(seeSec-
tion3.5.4) started displacing or augmenting regular image pyramids in some applications
8
Morerecent developmentsin visualperception theory arecovered in (Palmer1999;Livingstone2008).
C# Word - Delete Word Document Page in C#.NET
doc.Save(outPutFilePath); Delete Consecutive Pages from Word in C#. int[] detelePageindexes = new int[] { 1, 3, 5, 7, 9 }; // Delete pages.
delete pdf pages ipad; cut pages from pdf reader
C# PDF metadata Library: add, remove, update PDF metadata in C#.
Allow C# Developers to Read, Add, Edit, Update and Delete PDF Metadata in .NET Project. Remove and delete metadata from PDF file.
delete pages in pdf online; delete pages from a pdf in preview
14
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
(e)
(f)
Figure 1.8 Examples of computer vision algorithms from the 1980s: (a) pyramid blending
(BurtandAdelson1983b)
c
 1983 ACM, (b) shape from shading (FreemanandAdelson
1991)
c
1991 IEEE, (c) edge detection (FreemanandAdelson1991)
c
1991 IEEE, (d)
physically based models (TerzopoulosandWitkin1988)  c 1988 IEEE, (e) regularization-
based surface reconstruction (Terzopoulos1988)
c
1988 IEEE, (f) range data acquisition
and merging (Banno,Masuda,Oishietal.2008)
c
2008 Springer.
(Adelson,Simoncelli,andHingorani1987;Mallat1989;SimoncelliandAdelson1990a,b;
Simoncelli, Freeman, Adelson et al. 1992).
The use of stereo as a quantitative shape cue was extended by a wide variety of shape-
from-X techniques, including shape from shading (Figure1.8b) (see Section12.1.1 andHorn
1975;Pentland 1984; Blake, Zimmerman, and Knowles 1985; Horn andBrooks 1986, 1989),
photometric stereo (see Section12.1.1 andWoodham1981), shape from texture (see Sec-
tion12.1.2 andWitkin1981;Pentland1984;MalikandRosenholtz1997), and shape from
focus (see Section12.1.3 andNayar,Watanabe,andNoguchi1995).Horn(1986) has a nice
discussion of most of these techniques.
Research into better edge and contour detection (Figure1.8c) (see Section4.2) was also
active during this period (Canny1986;NalwaandBinford1986), including the introduc-
tion of dynamically evolving contour trackers (Section5.1.1) such as snakes (Kass,Witkin,
and Terzopoulos 1988),aswellasthree-dimensionalphysicallybasedmodels(Figure1.8d)
(Terzopoulos,Witkin,andKass1987;Kass,Witkin,andTerzopoulos1988;Terzopoulosand
Fleischer 1988; Terzopoulos, Witkin, and Kass 1988).
Researchers noticed that a lot of the stereo, flow, shape-from-X, and edge detection al-
1.2 A brief history
15
gorithms could be unified, or at least described, using the same mathematical framework if
they were posed as variational optimization problems (see Section3.7) and made more ro-
bust (well-posed) usingregularization (Figure1.8e) (see Section3.7.1andTerzopoulos1983;
Poggio, Torre, and Koch 1985;Terzopoulos 1986b;Blake andZisserman 1987; Bertero, Pog-
gio, and Torre 1988; Terzopoulos 1988). Aroundthesametime, Geman and Geman(1984)
pointed out thatsuch problems could equally well be formulated using discrete Markov Ran-
dom Field (MRF) models (see Section3.7.2), which enabled the use of better (global) search
and optimization algorithms, such as simulated annealing.
Online variants of MRF algorithms that modeled and updated uncertainties using the
Kalman filter were introduced a little later (DickmannsandGraefe1988;Matthies,Kanade,
and Szeliski 1989; Szeliski 1989). Attemptswerealsomadetomapbothregularizedand
MRF algorithms onto parallel hardware (PoggioandKoch1985;Poggio, Little, Gamble
et al. 1988; Fischler, Firschein, Barnard et al. 1989). Thebookby Fischler and Firschein
(1987) contains a nice collection of articles focusing on all of these topics (stereo, flow,
regularization, MRFs, and even higher-level vision).
Three-dimensional range data processing (acquisition, merging, modeling, and recogni-
tion;seeFigure1.8f) continued beingactively explored during this decade (AginandBinford
1976; Besl and Jain 1985; Faugeras and Hebert 1987; Curless and Levoy 1996).Thecompi-
lation byKanade(1987) contains a lot of the interesting papers in this area.
1990s. Whilealotofthepreviouslymentionedtopicscontinuedtobeexplored,afewof
them became significantly more active.
Aburst of activity in using projective invariants for recognition (MundyandZisserman
1992)evolvedintoaconcertedefforttosolvethestructurefrommotionproblem(seeChap-
ter7). A lot of the initial activity was directed at projective reconstructions, which did not
require knowledge of camera calibration (Faugeras1992;Hartley,Gupta,andChang1992;
Hartley1994a;FaugerasandLuong2001;Hartley andZisserman2004).Simultaneously,fac-
torization techniques (Section7.3) were developed to solve efficiently problems for which or-
thographic camera approximations were applicable (Figure1.9a) (TomasiandKanade1992;
Poelman and Kanade 1997; Anandan and Irani 2002)andthenlaterextendedtotheperspec-
tive case (ChristyandHoraud1996;Triggs1996). Eventually, the field started using full
global optimization (see Section7.4 andTaylor,Kriegman,andAnandan1991;Szeliskiand
Kang 1994; Azarbayejani and Pentland 1995),whichwaslaterrecognizedasbeingthesame
as the bundle adjustment techniquestraditionallyusedinphotogrammetry (Triggs,McLauch-
lan, Hartley et al. 1999).Fullyautomated(sparse)3Dmodelingsystemswerebuiltusingsuch
techniques (Beardsley,Torr,andZisserman1996;SchaffalitzkyandZisserman2002;Brown
and Lowe 2003; Snavely, Seitz, and Szeliski 2006).
Work beguninthe 1980s on usingdetailedmeasurements of color andintensity combined
16
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
(e)
(f)
Figure 1.9 Examples of computer vision algorithms from the 1990s: (a) factorization-based
structure from motion (TomasiandKanade1992)
c
1992 Springer, (b) dense stereo match-
ing (Boykov,Veksler,andZabih2001), (c) multi-view reconstruction (SeitzandDyer1999)
c
1999 Springer, (d) face tracking (Matthews,Xiao,andBaker2007), (e) image segmenta-
tion (Belongie,Fowlkes,Chungetal.2002)
c
2002 Springer, (f) face recognition (Turkand
Pentland 1991a).
withaccuratephysicalmodels of radiancetransportand color imageformationcreateditsown
subfield known as physics-based vision. A good survey of the field can be found in the three-
volume collection on this topic (Wolff,Shafer,andHealey1992a;HealeyandShafer1992;
Shafer, Healey, andWolff 1992).
Optical flow methods (see Chapter8) continued to be improved (NagelandEnkelmann
1986;Bolles, Baker, and Marimont 1987; HornandWeldonJr. 1988; Anandan1989; Bergen,
Anandan, Hanna et al. 1992; Black and Anandan 1996; Bruhn, Weickert, and Schn¨orr 2005;
Papenberg, Bruhn, Brox et al. 2006),with(Nagel 1986; Barron, Fleet, and Beauchemin 1994;
Baker, Black, Lewis et al. 2007)beinggoodsurveys. Similarly,alotofprogresswasmade
on dense stereo correspondence algorithms (see Chapter11OkutomiandKanade(1993,
1994); Boykov, Veksler, and Zabih(1998); Birchfield and Tomasi(1999); Boykov, Veksler,
and Zabih(2001),andthesurveyandcomparisonin Scharstein and Szeliski(2002)),with
the biggest breakthrough being perhaps global optimization using graph cut techniques (Fig-
ure1.9b) (Boykov,Veksler,andZabih2001).
1.2 A brief history
17
Multi-view stereo algorithms (Figure1.9c) that produce complete 3D surfaces (see Sec-
tion11.6) were also an active topic of research (SeitzandDyer1999;KutulakosandSeitz
2000)thatcontinuestobeactivetoday(Seitz, Curless, Diebel et al. 2006). Techniquesfor
producing 3D volumetric descriptions from binary silhouettes (see Section11.6.2) continued
to be developed (Potmesil1987;Srivasan,Liang,andHackwood1990;Szeliski1993;Lau-
rentini 1994),alongwithtechniquesbasedontrackingandreconstructingsmoothoccluding
contours (see Section11.2.1 andCipollaandBlake1992;VaillantandFaugeras1992;Zheng
1994; Boyer and Berger 1997; Szeliski and Weiss 1998; Cipolla and Giblin 2000).
Trackingalgorithms alsoimproved alot, including contour trackingusingactive contours
(see Section5.1), suchas snakes (Kass,Witkin,andTerzopoulos1988), particle filters (Blake
andIsard1998),andlevelsets(Malladi, Sethian, and Vemuri 1995),aswellasintensity-based
(direct) techniques (LucasandKanade1981;ShiandTomasi1994;RehgandKanade1994),
oftenappliedto tracking faces (Figure1.9d) (Lanitis,Taylor,andCootes1997;Matthewsand
Baker 2004; Matthews, Xiao, and Baker 2007)andwholebodies(Sidenbladh, Black, and
Fleet 2000; Hilton, Fua, and Ronfard 2006; Moeslund, Hilton, and Kr¨uger 2006).
Image segmentation (see Chapter5) (Figure1.9e), a topic which has been active since
the earliest days of computer vision (BriceandFennema1970;HorowitzandPavlidis1976;
Riseman and Arbib 1977; Rosenfeld and Davis 1979; Haralick and Shapiro 1985; Pavlidis
and Liow 1990),wasalsoanactivetopicofresearch,producingtechniquesbasedonmin-
imum energy (MumfordandShah1989) and minimum description length (Leclerc1989),
normalized cuts (ShiandMalik2000), and mean shift (ComaniciuandMeer2002).
Statistical learningtechniques started appearing, first in the application of principal com-
ponent eigenface analysis to face recognition (Figure1.9f) (see Section14.2.1 andTurkand
Pentland1991a)andlineardynamicalsystemsforcurvetracking(seeSection5.1.1and Blake
and Isard 1998).
Perhaps the most notable development in computer vision during this decade was the
increased interaction with computer graphics (SeitzandSzeliski1999), especially in the
cross-disciplinaryarea of image-basedmodeling and rendering (see Chapter13). The idea of
manipulating real-world imagery directly to create new animations first came to prominence
with image morphing techniques (Figure1.5c) (see Section3.6.3 andBeierandNeely1992)
and was later applied to view interpolation (ChenandWilliams1993;SeitzandDyer1996),
panoramic image stitching (Figure1.5a) (see Chapter9 andMannandPicard1994;Chen
1995; Szeliski 1996; Szeliski and Shum 1997; Szeliski 2006a),andfulllight-fieldrendering
(Figure1.10a) (see Section13.3 andGortler,Grzeszczuk, Szeliskietal.1996;Levoyand
Hanrahan 1996; Shade, Gortler, He et al. 1998). Atthesametime,image-basedmodeling
techniques (Figure1.10b) for automatically creating realistic 3D models from collections of
images were also being introduced (Beardsley,Torr,andZisserman1996;Debevec,Taylor,
and Malik 1996; Taylor, Debevec, and Malik 1996).
18
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
(e)
(f)
Figure 1.10 Recent examples of computer vision algorithms: (a) image-based rendering
(Gortler,Grzeszczuk,Szeliskietal.1996), (b) image-based modeling (Debevec,Taylor,and
Malik 1996) c 1996ACM,(c)interactivetonemapping(Lischinski, Farbman, Uyttendaele
et al. 2006a)(d)texturesynthesis(Efros and Freeman 2001),(e)feature-basedrecognition
(Fergus,Perona,andZisserman2007), (f) region-based recognition (Mori,Ren,Efrosetal.
2004) c 2004IEEE.
2000s. Thispastdecadehascontinuedtoseeadeepeninginterplaybetweenthevisionand
graphics fields. In particular, many of the topics introduced under the rubric of image-based
rendering, such as image stitching (see Chapter9), light-field capture and rendering (see
Section13.3), and high dynamic range (HDR) image capture through exposure bracketing
(Figure1.5b) (see Section10.2 andMannandPicard1995;DebevecandMalik1997), were
re-christened as computational photography (see Chapter10) to acknowledge the increased
use of such techniques in everyday digital photography. For example, the rapid adoption of
exposure bracketing to create high dynamic range images necessitated the development of
tone mapping algorithms (Figure1.10c) (see Section10.2.1) to convert such images back
to displayable results (Fattal,Lischinski,andWerman2002;DurandandDorsey2002;Rein-
hard, Stark, Shirleyetal. 2002; Lischinski, Farbman, Uyttendaele et al. 2006a).Inadditionto
merging multiple exposures, techniques were developed to merge flash images with non-flash
counterparts (EisemannandDurand2004;Petschnigg,Agrawala,Hoppeetal.2004) and to
interactively or automatically select different regions from overlapping images (Agarwala,
Documents you may be interested
Documents you may be interested