download pdf file in c# : Delete metadata from pdf software control cloud windows web page html class showfoto11-part16

The Showfoto Handbook
Currently, the ICC [International Color Consortium]... tracksand ensures that a color
is correctly mapped from the input to the output color space... by attaching a profile
for the input color space to the image in question. This is appropriate for high end
users. However, there are a broad range of users that do not require this level of
flexibility and control. Additionally, most existing file formatsdo not, and may never
support color profile embedding, and finally, there are a broad range of uses [that]
actually discourage people from appending any extra data to their files. A common
standard RGB color space addresses these issues ... by merging the many standard
and non-standard RGB monitor spaces into a single standard RGB color space. Such
astandard could dramatically improve the color fidelity in the desktop environment.
For example, if operating system vendors provide support for a standard RGB color
space, the input and output device vendors that support this standard color space
could easily and confidently communicate color without further color management
overhead in the most common situations. (archivedcopy)
To summarize, the point of the by-now almost universally adopted sRGB color space was and is
to make life easier for consumers (no need to worry about color management), lessexpensive for
manufacturers (no need to worry about compatibility between consumer-level digital cameras
or scanners, monitors, printers, and so forth), and more convenient for displaying images on the
Internet (don’t worry about embedding and reading icc profiles - just assume sRGB).
So if sRGB works so well and makes life so easy for everyone, why use any other color space and thus be
forced to worryabout color management issues?
sRGB was designed to contain colors easily displayed on consumer-oriented monitors and
printed by consumer-oriented printers manufactured in 1996. This least-common-denominator
set of viewable and printable colors - the technical term is ´´color gamut´´ - is much smaller than
the set of colors we can see in the real world, much smaller than the set of colors today’s digital
cameras can capture, much smaller than the set of colors today’s printers can print, and much
smaller than the color gamut of the new wide gamut monitors that are beginning to enter the
consumer market. For anyone who wants to make use of the wider color gamutsavailable today
even at the consumer level, the gamut of sRGB is too small. Conversely, if you don’t intend to
make use of an expanded gamut of colors at any point in your digital imaging workflow, then
you don’t need to worry about non-sRGB color spaces and all the attending intricacies of color
management. How small is sRGB?
Avisual representation of the limitations of sRGB compared to the colors we actually see in the
real world is presented here after. It shows a two-dimensional representation of all the colors we
can see (the horseshoe-shaped region) and the colors contained in the sRGB space (the smaller
triangular region).
Delete metadata from pdf - add, remove, update PDF metadata in, ASP.NET, MVC, Ajax, WinForms, WPF
Allow C# Developers to Read, Add, Edit, Update and Delete PDF Metadata
modify pdf metadata; add metadata to pdf programmatically
Delete metadata from pdf - VB.NET PDF metadata library: add, remove, update PDF metadata in, ASP.NET, MVC, Ajax, WinForms, WPF
Enable VB.NET Users to Read, Write, Edit, Delete and Update PDF Document Metadata
extract pdf metadata; rename pdf files from metadata
The Showfoto Handbook
If you would like to see atwo-dimensionalrepresentationof sRGB compared to some of thelarger
working color spaces, see Bruce Lindbloom’s excellentsite, click on ´´Info´´ then on ´´Information
About RGB Working Spaces´´.
3.2.3 Calibrating and profiling your monitorRGB? If I choose to work exclusively in the sRGB color space, do I need to calibrate my
Yes! Whether you stay within the color gamut provided by sRGB or not, you need a properly
calibrated monitor because sRGB assumes that your monitor is calibrated to sRGB. Your monitor
calibration closes the loop. If you work within the color gamut provided by sRGB then you need
to calibrate your monitor to the sRGB standard (or produce and use an accurate monitor profile,
or both). What are the consequences of working with an uncalibrated monitor?
There are several possible consequences, none of them good. Every monitor, calibrated or other-
wise, has a native (uncalibrated) white point, expressed as a temperature in degrees Kelvin. The
white point of amonitor (calibrated or not) isthe color you see when youare looking at a patchof
pure white on your screen. Pure white is when the RGB values in your image all equal 255 (asex-
pressed in 8-bits), such as the plain white background of a web page or an office document. You
are thinking, ´´white is white´´ but if you were able to line up several monitors calibrated to dif-
ferent white points, you would see that the higher the temperature of the monitor’s white point,
the bluer the screen looks in comparison with monitors with lower white points. If you can find
the controls of your own monitor, change the temperature up and down (remembering to put it
back to its initial setting whenyou are done, unless you decide you want adifferent white point).
Your eyes, which adapt quickly to a constant white point, will easily discern the screen getting
bluer and yellower as you move the white point higher and lower. If your uncalibrated monitor
is too blue (native CRT color temperature is typically 9300K and sRGB assumes 6500K), as you
edit your image you will overcompensate and produce images that will look yellowish and too
warm on a properly calibrated monitor. Conversely, if your monitor is too yellow because the
VB.NET PDF Page Delete Library: remove PDF pages in, ASP.
›› VB.NET PDF: Delete PDF Page. VB.NET PDF - How to Delete PDF Document Page in VB.NET. Visual Basic Sample Codes to Delete PDF Document Page in VB.NET Class.
remove metadata from pdf file; remove pdf metadata
C# PDF Page Delete Library: remove PDF pages in, ASP.NET
Page: Delete Existing PDF Pages. |. Home ›› XDoc.PDF ›› C# PDF: Delete PDF Page. C#.NET PDF Library - Delete PDF Document Page in C#.NET.
bulk edit pdf metadata; adding metadata to pdf files
The Showfoto Handbook
color temperature is set too low (I believe LCD native color temperature is around 5500K), your
images will look blueish/too cool on a properly calibrated monitor.
Setting a proper white point is only part of monitor calibration. You also need a proper black
point, brightness (luminance), and gamma (transfer) function. If your monitor is too dark be-
cause the black point is set too low, you will overcompensate and produce images that look
washed out on a properly calibrated monitor. Conversely, if your monitor black point is set too
high, your images will look took dark and overly saturated on aproperly calibrated monitor.
If the brightness/contrast is set too high, you will assume your images have a lot more ´´pop´´
than they really have when viewed on a properly calibrated monitor, plus your eyes will hurt
and your LCD screen will burn out faster.
If your monitor gamma is improperly set, your tonal variations from dark to light will be off.
That is, the shadows or highlights might be overly compressed or expanded, leading you to
compensate in the opposite direction. So when viewed on a properly calibrated monitor, the
shadows might be too bright or dark (or the highlights too dark or bright), with the rest of the
image suffering from tonal over-compression. And heaven help you if the internal R, G, and B
guns (or LCD equivalent) of your monitor are improperly set (each gun has its own black point
and gain), because the resulting color casts - too green, too magenta, too orange, etc, that you will
inevitably create by ´´correcting´´ your image during editing - are very obvious when viewed on
aproperly calibrated monitor.
Whether or not your monitor is properly calibrated, you might be surprised by the results of
comparing an image you’ve edited on your home monitor to the same image as displayed by
other monitors in your house or on your friend’s and neighbor’s monitors. We certainly were -
we have two Sony Trinitronmonitorsinour home, one with afailing (too high) greengun and one
with a failing (too high) blue gun. Every image edited on either monitor looked very wrong on
the other monitor, until we purchased aspectrophotometer to calibrate and profile both monitors.
Unfortunately, at this point neither of these two monitors can be calibrated to display a proper
black point, so they are no longer used for image editing - the point being that an additional
benefit of using a spectrophotometer is you know when it’s time replace your monitor. The meaning of ´´black point´´ and ´´brightness´´ seems pretty clear, but what does
´´gamma´´ mean?
SeethisWikipediaarticle for an overview of the role of gamma in monitors and photography;
the links at the bottomof the article are all excellent sources of additional information. Wikipedia
says´´Gamma compression, also known as gamma encoding, is used to encode linear luminance
or RGB values into video signals or digital video file values; gamma expansion is the inverse,
or decoding, process ... Gamma encoding helps to map data (both analog and digital) into a
more perceptually uniform domain.´´ Yeah, I know, clear as mud. Read the Wikipedia article
and study the pictures. Eventually it will sink in. If you wade very deeply into image editing
and color management, eventually you will need to make decisionsabout what gamma (or other
encoding/decoding function) you want to use when you calibrate your monitor, profile your
digital camera, and choose a working color space. When in doubt (for those of you who just want
to know which button to push!), gamma=2.2is a widely-used value, both for monitor calibration
and working color spaces. What’s the difference between calibrating a monitor and profiling a monitor?
When first learning about color management, many people are confused about the difference
between calibrating and profiling a monitor (I know I was). Quoting from Hal Engel’s excellent
discussion in the Showfoto users forum:
Calibration is a process where a device is brought into some defined state by mak-
ing adjustments to its controls or some other physical means. For example, the act
of calibrating a monitor involves adjusting its white point, black level, luminosity
VB.NET PDF Library SDK to view, edit, convert, process PDF file
Offer professional PDF document metadata editing APIs, using which VB.NET developers can redact, delete, view and save PDF metadata. PDF Document Protection.
add metadata to pdf file; batch update pdf metadata
C# PDF Library SDK to view, edit, convert, process PDF file for C#
PDF SDK for .NET allows you to read, add, edit, update, and delete PDF file metadata, like Title, Subject, Author, Creator, Producer, Keywords, etc.
preview edit pdf metadata; pdf xmp metadata editor
The Showfoto Handbook
and gamma to predetermined or standard values using the monitor’s controls and
by altering the video card gamma ramp... In contrast to calibration, the process of
creating a profile is a characterization of the device that does not involve making
any changes or adjustments to the device. Rather it is a measurement process that
results in a file that contains a precise mathematical description of the device’s color
and tonality characteristics. This file is an ICC profile. These characteristics include
the transfer function from the device’s color space to a standardized absolute color
space (this is called a Profile Color Space, PCS, in an ICC profile), the device’s white
point, black point, primaries and other information. Displays are normally charac-
terized (profiled) in their calibrated state. To summarize, calibration makes changes
to the device to alter it’scolor reproduction characteristics to conform to some prede-
termined state. Profiling or characterization is ameasurement process that results in
adetailed description of the device’s(normally calibrated) color reproductioncharac-
teristics. (cited fromhere)
Calibrating your monitor technically is not really part of color management. But obviously a
properly calibrated and/or profiled monitor is aprerequisite for acolor-managed workflow. This
tutorialdoes not cover the important topicsof how to calibrate and profile a monitor. TheArgyll-
CMS and LProf documentationsareverygoodandhighlyrecommendedreading.Touseeither
of this software to calibrate and/or profile your monitor, you will need a spectrophotometer. A
spectrophotometer (sometimes called a ´´spider´´) is a device for measuring the RGB values of
color patches projected onto the monitor screen by calibration/profiling software such as Argyll
and LProf. The Argyll website maintains an up-to-date list of supported spectrophotometers. I
believe LProf can use all the spectrophotometers that Argyll can use, as the two programs share
the relevant sections of code. Can I calibrate my monitor without a spectrophotometer?
There are various methods given on the Internet for calibrating a monitor without using a spec-
trophotometer. These ´´eye-ball´´ methods are better than not calibrating your monitor at all, and
depending your eyeball and your monitor, can produce quite usable results. But the eye-ball
methods are not a substitute for a properly calibrated and profiled monitor. For the record, cal-
ibrating and profiling a monitor with a spectrophotometer, though intimidating at first, is not
difficult. Spectrophotometers can be obtained for well under $100 US (if you opt for a more ex-
pensive model, make sure you are paying for a better piece of hardware, rather than just a more
fully-featured accompanying bit of manufacturer’ssoftware that won’t run under Linux). Argyll
and/or LProf documentationwillguide you throughthe processof calibrating andprofiling your
monitor, without your having to learn very much color management theory. And if/when you
learn enough about color management to realize that you want or need a more detailed monitor
profile of a particular type, for a particular purpose, these two softwares have all the advanced
capabilities you could possibly hope for. Assuming I’ve decided to work exclusively in the sRGB color space, what ´´Showfoto
buttons´´ should I push after I calibrate my monitor?
If your monitor has been calibrated to the sRGB standard and you work exclusively in the sRGB
color space, then you can disable color management in digikam. You don’t need to tell Showfoto
what monitor profile to use because Showfoto defaults to using the sRGB color space asthe mon-
itor color space profile. And you don’t need to tell Showfoto to use a color-managed workflow
because Showfoto defaults to using sRGB for your camera, printer, and working space, just as
laid out by HP and MS back in 1996.
But if you want to take the first steps toward a color-managed workflow, then refer tocorre-
sponding page of Settings,enablecolormanagement,andselectsRGBasyourmonitorprofile,
your camera profile, your working space profile, and your printer profile. If you’ve also used
Argyll or LProf to produce a monitor profile after you calibrated your monitor - perhaps named
VB.NET PDF delete text library: delete, remove text from PDF file
VB.NET PDF - How to Delete Text from PDF File in VB.NET. VB.NET Programming Guide to Delete Text from PDF File Using XDoc.PDF SDK for VB.NET.
search pdf metadata; google search pdf metadata
C# PDF delete text Library: delete, remove text from PDF file in
C#.NET PDF SDK - Delete Text from PDF File in C#.NET. How to Use C# Programming Demo Code to Delete Text from PDF File with .NET PDF Component.
remove pdf metadata online; adding metadata to pdf
The Showfoto Handbook
´´mymonitorprofile.icc´´ - then tell Showfoto to use ´´mymonitorprofile.icc´´ instead of sRGB as
your monitor profile. Where are all the icc profiles are located on my computer?
Well, this is Linux and it depends on where you put them. I put all my icc profiles in the /us-
r/share/color/icc folder, which isthe closest there is at thismoment to astandard Linux location
for icc profiles. If you use this folder for your icc profiles, likely you will need to change permis-
sions on the folder to allow your user read/write access. Then you just tell Showfotowhereyour
profilesare located. Does the lighting and wall/ceiling/drape/furniture colors near my monitor matter?
Yes! Good lighting is a prerequisite for proper image editing and for comparing prints to the
image on your screen. If the lighting near your workstation is too bright, colors on your mon-
itor look too dark, and conversely. If the light from the fixtures in your workroom have a low
CRI (color rendering index, meaning you don’t have full spectrum bulbs), or if the light in your
workroom comes from a window and so varies as the weather and time of day varies (or worse,
is filtered through colored drapery), or if the walls and ceiling are creating color casts on your
monitor, then your editing process will ´´correct´´ color casts that don’t really exist. Best advice,
as far as is consistent with maintaining harmony in the family: neutral grey walls and ceiling,
cover the windows, wear neutral clothing, set appropriate light levels using appropriate bulbs
and fixtures. For more information on what are the appropriate light levels, bulbs and fixtures
for editing images and viewing prints, see the following articles:
3.2.4 The camera profile and issues with raw file development What’s the next step in color management?
First and for the record, many excellent professional and amateur photographers save all their
imagesas in-camerajpegsand work exclusively in the sRGB color space. But if you want to work
in alarger color space, or if you want to work with raw files (evenif you output sRGB image files
from your raw files), read on.
Judging from questions asked in the Showfoto user’s forum, if you are reading this tutorial you
probably are shooting raw images with adigital dSLR and you are hoping that somewhere in the
arcane waters of color management lies the answer to how to get a nice picture from your raw
image file. And you’re right! The next thing you need is the right camera profile for developing
your raw image. But first let’sanswer the question you really might have been asking: Why doesn’t the image produced by raw converters like dcraw or ufraw look like the
embedded preview displayed by digikam?
Glad you asked. All digital camera images start out as raw files, whether or not the camera
allowsthe user the optionto save the image asa raw file. When you ask the camera to save jpegs
instead of raw files, the camera uses its on-board processor to convert the raw file to a jpeg. That
embedded preview is what your final image would have looked like if you had set your camera
to save jpegs instead of raw files.
VB.NET PDF File Compress Library: Compress reduce PDF size in vb.
Delete unimportant contents: Flatten form fields. Document and metadata. All object data. VB.NET Demo Code to Optimize An Exist PDF File in Visual C#.NET Project.
remove metadata from pdf; bulk edit pdf metadata
How to C#: Basic SDK Concept of XDoc.PDF for .NET
load, combine, and split PDF file(s), and add, create, insert, delete, re-order XDoc.PDF for .NET supports editing PDF document metadata, like Title
pdf xmp metadata; view pdf metadata in explorer
The Showfoto Handbook
From here I will speak from my experience as a Canon user, but I will guess that most or all
entry-level and mid-range dSLRs behave in a similar manner. Canon offers the user several
picture styles - neutral, standard, portrait, landscape, and so forth - that determine what kind
of processing will be done to the raw image file to produce the final image, whether or not the
processing is done ´´in-camera´´ or later, using the proprietary Canon DPP software. The Canon
DPP raw processing software does give the user additional control, but still manipulatesthe raw
image file in accordance with the chosen picture style. Most of the Canon picture styles add a
heavy S-curve and extra color saturation to give the picture more ´´pop´´. Even if you choose the
´´neutral´´ picture style (the Canon picture style that gives you the least modified tonality); and
select ´´less contrast´´, ´´less saturation´´, ´´no noise reduction´´, and ´´no sharpening´´ in the DPP
raw development dialog, you will find, if you know what to look for, that an S-curve and also
shadow denoising has been applied to your image.
Dcraw (which Showfoto uses to convert raw files to image files) doesn’t add an S-curve to your
image tonality. Dcraw gives you the lights and darks that are actually recorded by the cam-
era sensor. According toTindeman, an excellent read and source of good advice, with links to
equally good sources of additional information), dcraw is one of only a handful of raw develop-
ers that actually gives you the ´´scene-referred´´ tonality. Ufraw also produces a scene-referred
image by default (although ufraw gives the user the option to modify the scene-referred image
by changing the tonal distribution and saturation). And the dcraw/ufraw scene-referred image
IS flat-looking, because the camera sensor records light linearly, whereas our eyes are constantly
interacting with our brain to accommodate dim and bright areas in a scene, meaning our brain
to some extent ´´applies an S-curve´´ to the scene to enable us to better focus in on the areas of
particular interest as we look around The embedded jpeg preview looks so much nicer than dcraw’s output. What is the
value in scene-referred tonality?
When you take a picture, presumably you have an idea of what you want the final image to look
like. It is much easier to achieve that final image if you don’t have to ´´undo´´ stuff that has
already been done to your image. Once Canon (or Nikon, or Bibble, or etc) has applied their
proprietary S-curves and shadow-denoising, sharpening, etc to your image, then your shadows,
highlights, edge detail, etc, are already squashed, clipped, chopped, and otherwise altered and
mangled. You’ve thrown information away and you cannot get it back. Especially in the shad-
ows, even with 16-bit images (actually, 12- or 14-bits, depending on the camera, but it’s encoded
as 16-bits for the computer’s convenience), there just isn’t that much information to begin with.
It seemsto me that the heart andsoul of image processing is the deliberate manipulation of image
tonality, color, selective sharpening, and so forth, such that the viewer focuses in on what you,
the photographer, found of particular interest when you took the picture. Why give the art of
image processing over to some proprietary raw processing software? In other words, ´´flat is
good´´ if you’d rather give your images your own artistic interpretation. The alternative is to let
the canned, proprietary algorithms produced by Canon, Nikon, Bibble, etc interpret your images
for you. (On the other hand, there is no denying that for many images, those canned algorithms
are really pretty good!) Well, that’s all very interesting. I can see the value in starting my image-editing with
ascene-referred rendition instead of the eye-popping rendition that I see in the em-
bedded jpeg. But I’m telling you, the images produced by digikam/dcraw look really
really bad! Why?
Well, that depends. If the image looksvery dark, then you asked dcraw to output a16-bit file and
you have run into a problem with dcraw not applying a gamma transform before outputting the
image file. You can use imagemagick to apply the appropriate gamma transform to the image
file produced by dcraw. Or you can find or make a cameraprofile with a gamma of 1. Or you can
use ufraw, which applies the gamma transform for you.
The Showfoto Handbook
If your image has pink highlights, there’s a solution. For an explanation of the problem, along
with the command line cure for this problem, seethis´´LuminousLandscape´´forumpost.
If the image isn’t dark but it looks really weird, probably you made some injudicious choices
in the digikam/dcraw user-interface. The digikam/dcraw interface conveniently allows you to
´´dial in´´ options that you would otherwise have to specify at the command line. However,
convenience always comes at a price. First, the interface might not provide access to all the
options that are available at the command line (as of Showfoto 0.9.4, only some of the dcraw
command line options are available from the interface). And second, to get the most from the
digikam/dcraw interface, you have to know what the buttons, sliders, etc in the interface actually
do. Which means you need to know what happens at the command line if you want to get the
best results from using the interface. (This tutorial will not attempt to document how to use the
digikam/dcraw user interface. Digikamis developing at arapid pace and anything I might write
about the digikam/dcraw interface will surely be outdated in the near future.)
For example, if your embedded jpeg has very nice deep rich shadows but the digikam/dcraw-
produced jpeg or tiff has blotchy red line patternsin the shadow areas, thenyou probably put an
´´x´´ in the ´´Advanced, Black point´´ option, with the slider set to 0. Uncheck the Black point box
and try again. This box in the digikam/dcraw interface corresponds to the ´´-k´´ option when us-
ing dcraw at the command line. The ´´-k´´ option allows you to override dcraw’s best estimate of
where, inthe shadow tonesof your image, does digital signal start to override background noise.
If you don’t use the ´´-k´´ option at the command line, then dcraw calculates anappropriate value
for you, based on its estimate of background noise. For my Canon 400di, the dcraw-calculated
background noise value is usually around 256 (the command line option ´´-v´´ will tell dcraw to
tell you what it’s doing as it processes your raw file). If, however, I use the ´´-K /path to black-
frame.pgm´´ option to tell dcraw to subtract out a black frame, then dcraw will report the black
point as ´´0´´, as there is now no need to set it higher to avoid the deepest shadows in the image,
where noise typically drownsout signal. (A ´´black frame´´ is an exposure taken with the lenscap
on, with the same exposure settingsas, and ideally right after, taking the image being processed.
The ´´-K´´ option allows dcraw to subtract background noise from the image.) Where do I find good information on digital noise?
See the following excellent articles:
• Where do I find good information on the dcraw command lineoptions?
The very best source of information on how dcraw processes raw files is foundhere.
If you want to work with raw files, I recommend that you read Guillermo’s article two or three
times over. Guillermo believes that dcraw produces output superior when compared to the raw
processing done by commercial raw processors. After testing every commercial raw process-
ing program I could find, I also eventually ended up concluding that dcraw produces superior
The dcraw manpage explaining all the command line options ishere. Why are the Canon and Nikon colors better than the colors produced by dcraw?
Color rendition is one place where the Canon (and presumably Nikon) proprietary raw devel-
oping software does a really, really good job. Why? Because the proprietary raw processing
software is coupled with camera profiles that are specific to raw images coming from your make
The Showfoto Handbook
and model of camera, when processed using your make and model camera’s proprietary raw
processing software. I’ve checked extensively, using an ´´eyedropper´´ to compare the output
of various raw developers using various camera profiles from various sources - a very tedious
thoughinstructive process. Withufraw and dcraw (from the command line if not from digikam’s
dcraw user interface), you can apply Canon’s camera-model-picture-style-specific color profile(s)
to the dcraw output during the raw development process, and the colors willstill NOT be exactly
the same as what Canon produces. Likewise, Bibble profiles work pretty well with the Bibble
software, but they don’t work quite as well, in my opinion, with dcraw as they do with Bibble’s
own software. And so on. And so forth. Why is a camera profile specific to a given make and model of camera?
Digital cameras have an array of millions of little light sensors inside, making up either a CCD
or a CMOS chip. These light-sensing pixels are color-blind - they only record the amount, not
the color, of light falling on them. So to allow pixels to record color information, each pixel is
capped by a transparent red, green, or blue lens, usually alternating in what is called a Bayer
array (except for Faveon sensors, which work differently). A raw image is nothing more than an
array of values indicating ´´how much light´´ passed through the red, blue, or green lens cap to
reach the sensor.
Clearly, pixel response to light is the result of lotsof camera-specific factors including: the nature
of the sensor array itself, the precise coloring/transmissive qualities of the lens caps, and the
particular analog-to-digital conversion and post-conversion processing that happens inside the
camera to produce the raw image that gets stored on the card. What does ´´analog-to-digital conversion´´ mean?
´´Analog´´ means continuously varying, like how muchwater you can put ina glass. ´´Digitizing´´
an analog signal means that the continuously changing levels from the analog signal source are
´´rounded´´ to discrete quantities convenient to the binary numbers used by computers. The
analog-to-digital conversion that takes place inside the camera is necessary because the light-
sensing pixels are analog in nature - they collect a charge proportionate to the amount of light
that reaches them. The accumulated charge on each pixel is then turned into a discrete, digital
quantity by the camera’s analog-to-digital converter. Which by the way explains why a 14-bit
converter is better than a 12-bit converter - more precision in the conversion output means less
information is thrown away in the conversion process. Why is a camera profile specific to the raw processing program used to develop the
raw file?
The whole point of interpolation using demosaicing algorithms such as dcraw’s default AHD
is to guess what color and intensity of light actually fell on any given pixel by interpolating
information gathered from that single pixel plus its neighboring pixels (seeWikipediaarticle).
Every raw processing program makes additional assumptions such as ´´when is it signal and
when is it background noise?´´, ´´at what point has the sensor well reached full saturation?´´,
and so forth. The resulting output of all these algorithms and assumptions that raw processing
software makes is a trio of RGB values for each pixel in the image. Given the same raw file,
different raw processors will output different RGB values. Where do I find a generic profile for my camera?
The ufraw websitesectiononcolormanagementhas information on where to find ready-made
camera profiles. If you poke around the Showfoto users forum archives, you’ll find additional
advice. If you keep hunting and experimenting, likely you will find a generic profile that works
´´well enough´´. However, as stated above, it’s an unfortunate fact of digital imaging that the
The Showfoto Handbook
camera profiles supplied by Canon, Nikon, and the like don’t work as well with raw converters
other thaneach cameramanufacturer’sownproprietary raw converter. Whichis why Bibble and
Phase One, for example, have to make their own profiles for all the camerasthat they support. So
eventually you may decide that you want a camera profile that is specific to your camera, your
lighting conditions, and your raw processing workflow. How do I get a camera profile specific to my camera, lighting conditions, and raw
Many commercial services provide profiling services, for a fee, of course. Or you can use LPRof
to profile your camera yourself. If you want to profile your own camera, you will need an ´´IT8
target´´, that is, animage containing squares of known colors. Along with the IT8 target, you will
receive the appropriate set of known values for each square of color on the target.
If you plan to use LProf to profile your camera, check the documentation for a list of recom-
mended targets. To profile your camera, you photograph the IT8 target under specified lighting
conditions (for example, in daylight, usually taken to mean noon on a sunny day in the summer,
with nothing nearby that might cast shadows or reflect color casts) and save the image as a raw
file. Then you process the raw file using your particular raw processing software+settings and
run the resulting image file through the profiling software. The profiling software compares the
RGB values in the image produced by your camera+lighting conditions+raw processing routine
with the RGB values in the original target and then produces your camera (icc) profile.
Profiling a camera is exactly analogous to profiling a monitor. When profiling a monitor, the
profiling software tells the graphics card to send squares of color with particular RGB values
to the screen. The spectrophotometer measures the actual color that is produced on the screen.
When profiling a camera, the known colors are the RGB colors in the original patches on the IT8
target, which the profiling software compares to the colors produced by the digital image of the
target, which was photographed in selected lighting conditions, saved as raw, then processed
with specific raw processing software+settings.
processor) to produce a camera profile. Debian Lenny has LProf 1.11.4 in the APT repositories.
More recent versions can be built from CVS. And here is a link to an affordable, well-regarded
IT8 target. How do I apply a camera profile to the 16-bit image file produced by my open source
raw processing software?
If you are using the digikam/dcraw interface,hereis how to tell Showfoto which camera profile
to use. If you are using dcraw fromthe command line, you have the choice of outputting your 16-
bit image file with or without the camera profile already applied. If you ask dcraw to output the
file without applying the camera profile, you can use LCMS’s tifficc utility (also at the command
line) to apply the camera profile. The advantage of using tifficc is that you can tell LCMS to use
high quality conversion (dcraw seems to use the LCMS default medium). The disadvantage, of
course, is that applying your camera profile from the command line adds one extra step to your
raw workflow. If you are using ufraw, consult the ufraw user’s guide.
3.2.5 The PCS: color profiles point to real colors in the real world Camera, scanner, working space, monitor, printer - what do all these color profiles
really do?
Acolor profile describes the color gamut of the device or space to which it belongsby specifying
what real color in the real world corresponds to each trio of RGB values in the color space of the
device (camera, monitor, printer) or working space.
The Showfoto Handbook
The camera profile essentially says, ´´for every RGB trio of values associated with every pixel in
the image file produced from the raw file by the raw processing software, ´´this RGB image file
trio´´ corresponds to ´´that real color as seen by a real observer in the real world´´ (or rather, as
displayed on the IT8 target if you produced your own camera profile, but it amountsto the same
thing - the goal of profiling your camera is to make the picture of the target look like the target).
You cannot see an image by looking at its RGB values. Rather you see an image by displaying
it on a monitor or by printing it. When you profile your monitor, you produce a monitor profile
that says ´´this RGB trio of values that the graphicscard sends to the screen´´ will produce on the
screen ´´that real color as seen by a real observer in the real world´´.
What the monitor profile and the camera profile have in common is the part (in italics above)
about ´´that real color asseen by a realobserver inthe real world.´´ Different trios of RGB numbers
in, respectively, the monitor and camera color spaces point to the same real, visible color in the
real world. Real colors in the real world provide the reference point for translating between all
the color profiles your image will ever encounter on its way from camera to screen to editing
program to print or the web. How can a color profile point to a real color in the real world?
Real people don’t even see the same colors when they look at the world, do they?
Along time ago (1931, although refinements continue to be made), the International Color Con-
sortium decided to map out and mathematically describe all the colors visible to real people in
the real world. So they showed a whole bunch of people a whole bunch of colorsand asked them
to say when ´´this´´ color matched ´´that´´ color, where the two visually matching colors were in
fact produced by differing combinations of wavelengths. What was the value of such a strange
procedure? Human color perception depends on the fact that we have three types of cone re-
ceptors with peak sensitivity to light at wavelengths of approximately 430, 540, and 570 nm, but
with considerable overlap in sensitivity between the different cone types. One consequence of
how we see color is that many different combinations of differing wavelengths of light will look
like ´´the same color´´.
After extensive testing, the ICC produced the CIE-XYZ color space which mathematically de-
scribes and models all the colors visible to an ideal human observer (´´ideal´´ in the sense of
modeling the tested responsesof lots of individual humans). Thiscolor space is NOT a color pro-
file in the normal sense of the word. Rather it provides an absolute ´´Profile Connecting Space´´
(PCS) for translating color RGB values from one color space to another. (Seehereandhere.)
CIE-XYZ is not the only PCS. Another commonly used PCS is CIE-Lab, which is mathematically
derived from the CIE-XYZ space. CIE-Lab is intended to be ´´perceptually uniform´´, meaning ´´a
change of the same amount in a color value should produce a change of about the same visual
importance´´ (cited fromWikipediaarticle). Wikipedia says ´´The three coordinates of CIELAB
represent the lightness of the color (L* = 0 yields black and L* = 100 indicates diffuse white;
specular white may be higher), its position between red/magenta and green (a*, negative values
indicate green while positive values indicate magenta) and itsposition between yellow and blue
(b*, negative values indicate blue and positive values indicate yellow)´´ (cited fromWikipedia
To be useful, color profiles need to be coupled with software that performs the translation from
one color space to another via the PCS. In the world of linux open source software (and also
many closed source, commercial softwares), translation from one color space to another usually
is done byLCMS, the ´´little color management software´´. For what it’s worth, my own testing
has shown that LCMS doesmore accurate colorspace conversionsthanAdobe’s proprietarycolor
conversion engine.
Documents you may be interested
Documents you may be interested