c# pdf library mit : Add metadata to pdf Library software class asp.net winforms .net ajax wipo_pub_9468-part700

80 
analyzed or complementary analysis is needed with the use of visualization or analysis tools that are 
not available in-house.  
The selection of the contractor is sometimes simply based on recommendations, a web search with 
comparison of prices and description of services, or on previous cooperation with certain service 
providers. The same Patent Landscape Report can look completely different and follow a different 
approach, depending on the service provider and in some cases it may even make sense to 
commission the same report to two different providers in order to cover various approaches, but also 
as an additional quality check, foremost when the decision that the Report will support is important 
and the budget allows so. When also time allows, a way to ensure a wider choice among service 
providers for selection, based on comparable specifications is to tender the provision of the report and 
make a call for tender or issue a request for proposals (RFP). 
Request for proposals 
In the framework of WIPO Patent Landscape Report Project the preparation of the reports has been 
commissioned to external providers due to the broad spectrum of topics of the reports, requiring 
expertise in patent search in the relevant fields. In order to ensure a broad range of offers from 
various service providers using different methodological approaches and tools,  
a Request for Proposals (RFP) is issued every time that the preparation of a Report has been decided 
and the Terms of Reference document has been prepared. The RFP includes the finalized Terms of 
Reference (ToR), along with other general terms and conditions and forms the basis for the 
submission of technical and financial offers for the provision of a Patent Landscape Report. 
Within a given deadline, the various suppliers provide a technical and financial offer, based on the 
ToR. That allows for comparability of the offers based on specific requirements and deliverables, and 
the inclusion of certain added-value deliverables.  
Selecting a candidate 
The selection of a candidate for the preparation of a Patent Landscape Report is not always a 
straight-forward decision. In the framework of a public procurement procedure, the most common 
approaches are the lowest price or the most economically advantageous offer. Since the provision of 
the report is a service where quality is a high priority, the price as such may be important, but is or 
should not be the decisive criterion. Through the evaluation and selection process it should be 
ensured that the successful candidate has a correct understanding of the commissioning party’s 
needs and requested deliverables, fulfills the technical requirements, and  submits a convincing offer 
that lies within the estimated budget.  
During the WIPO Patent Landscape Reports the need for the definition of specific evaluation criteria 
has been identified. The approach followed aimed at a balanced evaluation of the financial and 
technical offer: 
Add metadata to pdf - add, remove, update PDF metadata in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Allow C# Developers to Read, Add, Edit, Update and Delete PDF Metadata
search pdf metadata; google search pdf metadata
Add metadata to pdf - VB.NET PDF metadata library: add, remove, update PDF metadata in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Enable VB.NET Users to Read, Write, Edit, Delete and Update PDF Document Metadata
pdf metadata extract; pdf metadata online
81 
8.1.5.2 - Conducting the work in-house
A number of bigger corporation have an in-house team with patent information professionals which 
can carry various names, such as Business or Competitive Intelligence, Patent Information, Patent or 
IP Analytics. This team usually works in cooperation with the IP or Patent Law area and provide 
shorter or longer landscape reports to the senior management to facilitate their decision making. 
8.2 – Performing the Search 
While discussing the Linear Law of Patent Analysis, in section 7.3, it was stated that the question 
drives the data. The data, in the case of PLRs, is patent information, and it is collected by means of 
various types of searches conducted in a variety of different databases. Using the Linear Law of 
Patent Analysis as a backdrop for thinking about searching, there are two elements that need to be 
considered, the first involves generating a query that will provide the right data for addressing the 
business question behind the PLR, and the second involves producing the proper output and formats 
for ensuring that the data can be analyzed in the next step of this process. 
All of the planning behind a PLR is directed towards providing insight on a particular organizational 
issue that the client is looking to explore. As already described, the topic and scope are generated 
based on this principle, and once they are decided upon they frame the questions that will be 
VB.NET PDF insert image library: insert images into PDF in vb.net
VB.NET PDF - Add Image to PDF Page in VB.NET. Guide VB.NET Programmers How to Add Images in PDF Document Using XDoc.PDF SDK for VB.NET.
remove pdf metadata online; pdf metadata editor online
C# PDF Password Library: add, remove, edit PDF file password in C#
C# Sample Code: Add Password to PDF with Permission Settings Applied in C#.NET. This example shows how to add PDF file password with access permission setting.
edit pdf metadata online; pdf xmp metadata editor
82 
addressed with the search and subsequent analysis. If the topic, for instance, is access to essential 
medicines, and the scope includes developing countries, then the type of searching should included 
methods that will find patents on the agreed upon medicines, and the databases searched should 
cover the countries determined to be part of the definition of developing nations. Based on our earlier 
discussion on scope, the databases searched should also include countries where the medicines will 
likely be manufactured. This may seem obvious or intuitive, but it reinforces the reason why the Linear 
Law of Patent Analysis is referred to as a linear law, the reason being that each subsequent step 
builds upon the previous one. Initial agreement on the topic, and the scope makes the development of 
the search parameters straightforward, and when it comes time to explain it to the client, easier for 
them to understand in the context of fulfilling the objectives of the PLR. 
It is also important to ensure that the items to be analyzed, in the subsequent steps, are included in 
the data to be exported from the database of interest, once the search has been conducted. Different 
databases include different exporting options so an analyst will need to ensure that the requirements 
for analysis are met before time, and effort is put into the searching. At a minimum, as covered in 
section 8.4, the following fields should be available for export: Patent Assignees, Inventors, 
Application Date, Priority Date, International Patent Classifications, Forward Citations, Backward 
Citations and Patent Status. 
While it is not the intention of these guidelines to provide a comprehensive discussion on patent 
searching, some thoughts on an approach for doing so will be provided. Conducting an Internet 
search for the phrase “patent searching tutorial” can discover additional perspectives on patent 
searching. One of the better examples comes from Stanford University: 
http://www.stanford.edu/group/biodesign/patentsearch/howto.html 
Another patent searching approach is referred to as “reverse engineering”. Using this method an 
analyst will conduct a quick search for the main topic in the title field of the database of interest. This 
will generate a few references, which are likely to be highly on target. These references are then 
“reverse-engineered” to identify relevant patent classification codes, database specific indexing, and 
other terms used by the inventor to describe the concept involved. As these searching artifacts are 
collected, another search is performed, generating a large collection of documents that are also 
examined for new synonyms, and additional codes. The process is repeated until no additional search 
items are identified, and the analyst feels they have conducted a thorough search. 
Referring back to section 7.4, on precision and recall, it was discussed how these principles are 
normally in conflict with one another. Precision is sacrificed normally in pursuit of higher recall. PLRs 
are overviews, and statistical measures are conducted in association with them, so recall is generally 
more critical than precision. This applies to work done in conjunction with a PLR where high recall 
searching methods should be employed. From a practical perspective, if the level of recall can be 
established at higher than 90%, while the precision kept above 70%, then the likelihood of finding 
statistically relevant items appearing in the subsequent analysis steps that are significantly off-topic is 
reasonably small. Major statistical finding should always be validated, to ensure that they are not 
coming from imprecise searching, but the majority of the time records that are off-topic will not be 
associated with major trends, and thus not seen in the analysis. 
C# PDF Sticky Note Library: add, delete, update PDF note in C#.net
C#.NET PDF SDK - Add Sticky Note to PDF Page in C#.NET. Able to add notes to PDF using C# source code in Visual Studio .NET framework.
remove metadata from pdf file; edit multiple pdf metadata
C# PDF Library SDK to view, edit, convert, process PDF file for C#
PDF SDK for .NET allows you to read, add, edit, update, and delete PDF file metadata, like Title, Subject, Author, Creator, Producer, Keywords, etc.
read pdf metadata java; clean pdf metadata
83 
8.2.1 – Determining the Type of Searching to be Done 
The following explanation of an approach to searching pharmaceutically relevant compounds comes 
from the WIPO PLR on Atazanavir
80
Of course, to find patents about a particular drug, the best way is to search for it by name. This is 
easier said than done with chemical compounds, and in this section of the report, the “pre-clinical” and 
“clinical” names will be discussed, along with the strategies for assembling a collection that covers the 
development of the compound from beginning to end. Having confidence in the quality of the 
collection is crucial to the subsequent analysis. 
When the initial patent application was made (1995), the compound was not known as Atazanavir, 
which is its current non-proprietary generic name. Generic names are only applied to compounds after 
they have been approved for clinical investigation. It is usual also for the claims of the initial 
composition patent to cover not just one composition, but a range of compositions with different 
substitutions in various sites on the basic backbone structure. The backbone with variable 
substituents (shown as R groups in the variable positions) is called a Markush structure. 
The report goes on to give examples of the various ways to identify all of the chemical names 
associated with Atazanavir, as well as the various additional methods, such as Markush and 
substructure searching, for finding documents on chemical compounds. It provides a nice example of 
the need to structure an approach to the type of searching needed, depending on the topic of the 
PLR. 
Searching in some technological fields, especially the life sciences, requires subject-matter expertise 
from scientists who understand the field, and perhaps more importantly, from professional searchers, 
who know how to find patent information in these areas. If the analyst is not a trained patent searcher 
than assistance should probably be pursued in this practice. 
8.2.2 – Determining which Databases to Use 
There are many databases containing patent information available. A list of some of the more widely 
used ones can be found in section 9.2 of these guidelines. Some databases contain information that 
can subsequently be used to identify data in other databases that are configured to allow for the 
exporting of information that will be used in the analysis steps. The example below, from the Initiative 
for Medicines Access & Knowledge (I-MAK) PLR on HIV Drug Patents in China
81
demonstrates the 
use of this approach: 
The ARVs covered in this patent landscape are based on the generic names (International 
Nonproprietary Names – INN) of marketed ARV treatments listed by the US Food and Drug 
Administration (USFDA). In addition, patent information for some ARVs showing potential in Phase III 
of clinical trials are also provided. 
The first step was to search for patents covering INNs as listed in the USFDA Electronic Orange 
Book.4 As the Orange Book only provides US patent data, this information was used to conduct 
80
http://www.wipo.int/patentscope/en/programs/patent_landscapes/reports/atazanavir.html  
81
http://www.wipo.int/export/sites/www/patentscope/en/programs/patent_landscapes/docum
ents/i_mak_hiv_drug_patents_in_china_tahir_amin_may_2010.pdf  
VB.NET PDF Library SDK to view, edit, convert, process PDF file
Various of PDF text and images processing features for VB.NET project. Multiple metadata types of PDF file can be easily added and processed. PDF Metadata Edit.
pdf metadata viewer online; pdf metadata online
C# PDF insert image Library: insert images into PDF in C#.net, ASP
C#.NET PDF SDK - Add Image to PDF Page in C#.NET. How to Insert & Add Image, Picture or Logo on PDF Page Using C#.NET. Add Image to PDF Page Using C#.NET.
edit pdf metadata acrobat; pdf metadata viewer
84 
patent family searches that would capture patents claiming the same priority and which have been 
filed or have entered the national phase in China under the PCT. It should be noted that a number of 
PCT applications designating China were located in the search, but have not yet entered the national 
phase there. These applications are not included in this patent landscape. 
The European Patent Office (esp@cenet) and Thomson Innovation databases were used for 
conducting patent family searches. Once the Chinese patent numbers were identified, the status of 
the patents was checked using Thomson Innovation, the Chinese Patent Office (SIPO) and Chinese 
Patent Information Centre (CPIC) databases. 
However, relying solely on patents listed on the Orange Book will only yield some of the patents 
relating to ARVs. First the Orange Book only lists granted US patents. Therefore, pending US patents 
that may relate to an HIV drug would not be listed. For example, the relevant patents covering the 
heat- stable tablet formulation for ritonavir, ritonavir and lopinavir (Kaltra/Aluvia) are currently not 
patented in the US and, therefore, do not feature in the Orange Book. Second, the Orange Book only 
covers HIV drugs marketed in the US. As a result, many patents covering fixed dose combinations of 
ARVs will not be listed. An example of this is the combination lamivudine and zidovudine (Combivir). 
Also, patents covering drugs that are going through clinical trials do not feature in the Orange Book. 
Finally, patents on intermediate compounds and processes or methods of manufacturing a drug are 
not permitted for listing on the Orange Book. 
Taking into account the limited patent information available in the Orange book, further searches were 
conducted using keywords including chemical names for INNs and brand names for ARVs. In 
addition, citation searches of to earlier patents identified in the Orange Book were also conducted. 
Only patents held by originator companies were included in the landscape. Again, the patent status 
was checked using Thomson Innovation, SIPO and CPIC databases. 
Once the relevant Chinese patents were identified, copies of the published or granted patent 
specifications and their claims were downloaded from Thomson Innovation and Esp@cenet. Where 
possible, the key claims of the Chinese patent documents were translated using machine translation 
to obtain a basic understanding of the subject matter covered. Additionally, claims of the Chinese 
patents were compared with their equivalent PCT, European and US patents. 
The USFDA Orange Book was used to identify some of the relevant patents, while Thomson 
Innovation, and Espacenet were used to identify Chinese family members. The translated claims were 
also extracted from these databases since they were required for subsequent analyses within the 
report. 
Once again, if the analyst is not comfortable with the art of patent searching, then appropriate, 
professional assistance should be sought. 
8.2.3 – Sharing the Strategy 
When sharing the search strategy used for collecting data for a PLR, there is a fine line between 
providing enough details to inspire confidence in the search while not overwhelming the readers of the 
report with a large amount of searching syntax, and details. A practical approach is to provide a 
written overview of the methods used, which will be included at the beginning of the PLR, and 
providing details in an appendix. The Atazanavir
PLR
4
, discussed in section 8.2.1, also provides a 
good example of this practice: 
C# TIFF: TIFF Metadata Editor, How to Write & Read TIFF Metadata
You can also update, remove, and add metadata. List<EXIFField> exifMetadata = collection.ExifFields; You can also update, remove, and add metadata.
read pdf metadata online; pdf metadata reader
VB.NET PDF Password Library: add, remove, edit PDF file password
VB: Add Password to PDF with Permission Settings Applied. This VB.NET example shows how to add PDF file password with access permission setting.
acrobat pdf additional metadata; batch update pdf metadata
85 
A number of approaches are useful to prepare a collection of pre-clinical patents covering the same or 
similar compounds, even though the Atazanavir name was not yet available. These approaches are 
applicable even when access to enhanced content such as the Derwent World Patent Index is not 
available, and all have been used in this report. 
List of search approaches: 
•  Identifying founder compositions by using the SPC filing registration found in the Legal 
bStatus field. In later documents this field is also likely to contain the generic or brand bname 
of the drug.  
•  Searching for key terms selected from the unique parts of the chemical name (± 
bclassification codes). 
•  Searching for CAS codes in the description field. 
•  Searching for founding inventor names together with their developer company names to 
bselect potentially related documents from the company’s holdings.  
•  Searching target key terms together with developer company names.  
•  Searching for documents that cite patents owned by the companies involved in bdevelopment.  
The results from such searches do overlap with one another, and may also overlap with the clinical 
collection. After cross-deduplication, they will often need further review to determine if they are 
sufficiently on-topic. It is expected that this list will contain many fewer documents than are present in 
the clinical collection, because the volume of patents is typically lower before the discovery phase 
moves into clinical development. However, these documents should help fill in the “gap” period 
mentioned earlier, the period between the first composition patent, and the beginnings of clinical 
testing. The details for these search strategies are provided in Appendix A. 
The search methodology section of the PLR contains a written description of the various methods 
used. The breadth and depth of the approach can be clearly seen from the outlined steps, in a fashion 
that can be understood by the average reader of the document, but without overwhelming them with 
jargon and scripting. The details, important to a patent information professional who might be tasked 
with updating or replicating the work, can be found in the appendix. 
8.3 – Preparing the Data to be Analyzed 
With data from the search in hand, it is time to put it into a form that is appropriate for analysis. Under 
most circumstances, especially with large data collections, more time will be spent preparing the data 
than required to conduct the analysis. Almost all analysis and visualization tasks require one form of 
data preparation, or another, to be performed, but it is especially important for analytics involving 
statistical measures. The methods used and the results of the preprocessing will significantly impact 
the values obtained in the statistical analyses. This requirement is so prevalent that it has an acronym 
associated with it, GIGO, Garbage In Garbage Out. 
The following subsections examine, in greater detail, some of the more common preprocessing steps 
used in conjunction with patent data sets for PLRs. These operations take place before any analyses 
are conducted, and don’t generally require an iterative series of vetting steps as will be seen when 
performing an analysis. 
8.3.1 – Field Cleanup and Grouping 
On a number of occasions, particularly in section 6.1, patent data has been referred to as “messy”. In 
particular, there are frequent misspellings that need to be addressed in the Patent Assignee/Applicant 
and Inventor fields, before they can be used in statistical analyses. General methods for manually and 
86 
semi-automatically cleaning up misspellings in these fields were also briefly covered in section 6.1. A 
semi-automated method for correcting misspellings that is gaining in popularity is found in the use of 
Open Refine for this task. 
Open Refine was once called Google Refine and was developed by Google as a power tool for 
dealing with messy data
82
. There are six different algorithms provided for cleaning up data using the 
methods found in Refine. In particular, the Metaphone3 algorithm does a nice job of automatically 
cleaning many of the common spelling errors found in Patent Assignee and Inventor fields. Once the 
algorithm is launched it will provide the results along with some statistics about the entries in the cells. 
The results of the cleanup can be reviewed and if the analyst agrees with the way the algorithm 
performed they can check the Merge box. A New Cell Value can also be added so the organization 
name looks the way the user wants it to as opposed to what is provided by the tool. 
A full description, and example, for cleaning fields using this method can be found at: 
http://www.patinformatics.com/blog/patent-assignee-cleanup-using-google-refine-open-refine-text-
facets-and-clustering/ 
Besides dealing with misspellings, it is also necessary to group items together under a single name 
for accurate statistics. Accounting for mergers and acquisitions is an example of a case where 
grouping is done to reflect all of the documents associated with a single organization. In a similar 
fashion, when they are known, it is also important to standardize inventor names based on a change 
of name after marital status, or when middle names and initials, or multiple generations of individuals 
with the same name, need to be account for. These items are groupings, as opposed to cleanups 
since they require expert knowledge of external events that may have taken place, which caused the 
change in status. Discovering these events often requires additional research into the details 
associated with the documents in question, but once know the actual mechanism for conducting the 
grouping is performed using the same tools that are associated with cleanup. 
Looking at Open Refine again, groupings can be managed using a feature called text facets. Within 
the text facet window there is the capacity to manually edit any of the values, so grouping can be 
performed by scanning the list while in alphabetic order. If a change is required, pass the cursor over 
an entry, and an edit link will appear that allows the user to change the value to something different. 
Remember to stay consistent if repeating an organization or inventor name that was used in a 
different part of the list. 
8.3.2 – Family or Invention Reduction 
Patent family, or invention reductions were covered extensively in section 8.1.3.3. As stated in that 
section, many analysts use an extended family, of which the most popular is the INPADOC family, to 
eliminate the same invention covered by applications in multiple countries. As dicussed, the use of 
extended families can dramatically underrepresent the amount of investment an organization has 
made in a technology, especially in the United States and Japan. 
It is critical, however, that some family or invention reduction takes place, since over representation, 
based on a multi-country filing bias, can occur if a reduction of the set to be analyzed is not 
82
https://github.com/OpenRefine/OpenRefine  
87 
performed. It has been suggested that a One Document per Invention (ODPI) approach
83
, where all 
inventions from a primary country, the United States for instance, are retained, provides a middle 
ground for eliminating multi-country biases while ensuring that investment is properly represented. 
The use of simple families or vendor specific families is also encouraged. 
Regardless of the method used, the choice of reduction method should be clearly stated in the 
Methodology or Issues and Limitations section of the PLR, and it should be consistently applied to all 
of the analytics associated with the project. 
8.3.3 – Is Manual Review Required for Precision 
In section 8.2 it was stated that greater than 90% recall, and 70% precision, were required before 
accurate analyses could be generated on a data collection. Even with advanced searching tools it is 
sometimes impossible to produce a query that will provide at least 70% precision. There are also 
occasions where 70% precision is not high enough and levels closer to 90% are required for 
trustworthy results. This is especially true with smaller data collections, were errors will have a larger 
impact than they would with sets numbering in the tens of thousands. 
In either event, if the analyst reviews the data generated from a search and finds that an 
uncomfortable number of irrelevant documents, or “false drops” have made their way into the 
collection, a manual review of the documents will be required. This step should be conducted after 
cleanup, grouping or family reduction has taken place since these processes will either lower the 
number of documents that need to be reviewed or will organize them in a fashion that will make 
review more efficient. 
Manual review, under these circumstances, normally involves the scanning of titles, and perhaps 
abstracts, to determine if a document should remain in the corpus. The source titles and abstracts, of 
patent documents from most issuing authorities are notoriously vague and ambiguous, and many 
times are not particularly helpful. Enhanced titles and abstracts, as provided by several value-added 
database producers, are generally very helpful when performing a scanning process. Using enhanced 
titles and abstracts it is often possible to scan several hundred documents within an hour or two. 
Document collections with less than 500 members should be reviewed quickly for relevance to 
achieve maximum results. 
8.3.4 – Determining Which Year Field will be Used 
When conducting analytics, they are typically done on a year-to-year basis. Dates are provided for a 
number of milestones in the on-going lifecycle of a patent application, but working with specific dates 
is normally too granular, so years are used instead. There are three primary year choices associated 
with patent data, the application or filing, the grant or publication and the priority filing. These were 
discussed in some detail in section 4.2.1.3. 
Depending on the objectives and questions being asked, in association with a PLR, a choice should 
be made about the year being used. As with the family reduction method employed, once a decision 
is made on which year will be used, it should be consistently applied across the entire PLR. Deviation 
from this principle should not occur unless there is an important reason for representing some 
analyses differently than the others. Under those circumstances, it should be made clear to the client 
that a different year type is being used. 
83
http://www.patinformatics.com/blog/counting-documents-when-conducting-a-patent-
analysis-project/  
88 
Application year is used when an analyst wants to provide a closer approximation to when the 
research associated with an invention was performed, or when additional investments on behalf of an 
organization were being made. This is a popular year format for use in analytics, but there are issues 
associated with its use, since the analyses performed with this field generates a dip in the most recent 
years. This decline has to be explained to clients since it can be mistaken for a decrease in recent 
interest by a company, or in an area, but is really based on the 18-month delay in the publication of 
patent applications. Many analysts either cut out the last two years of their analysis, which is not 
recommended, or they place a red line on their visualization, 18 months from the end of it, and add a 
note to the bottom suggesting that new patents applied for in the last 18-months will not have 
published yet. 
Publication year, on the other hand, does not generate a dip in recent years, since this event occurs 
when the patent grants, or when the application publishes in real time. The advantage, in this case, is 
that sudden downward trends don’t have to be explained to the clients. The disadvantage to the use 
of publication year comes from issues surrounding the length of time required for patents to grant in 
some art units, between patent offices, and other factors. If only applications are being studied than 
this is not an issue, since almost all of them publish 18-months after filing. With granted patents 
though, the path to investment can be difficult to gauge when some of the patents took three years to 
grant while others took five or more. The difficulty in interpreting publication year analytics are 
compounded when data collections contain both granted patents and pending applications. 
Analysts frequently also use the priority year when performing analyses. This practice should only be 
used if an expanded family reduction was used on the collection before an analysis was performed. 
As was the case with underrepresentation with extended families, the use of priority year can create 
analytics where it appears that all of the work was done in a single year, since a large, extended 
family might all claim priority to a single, early year. Normally, large families develop over time, and if 
a reduction method such as ODPI is used than the application, or publication year, is a better choice 
since they provide details on the timing associated with the growth of the individual inventions. 
Ultimately, the choice of which year to use will depend on whether an extended family reduction is 
used, or if the analyst is more interested in highlighting time of investment, or accurately portraying 
recent trends in the publication of patent documents of interest. 
8.3.5 – Generating Technology Categories 
Most PLRs provide a broad overview of a technological topic area. There are often many approaches 
in which the issues associated with any given research area can be addressed. One of the key 
objectives of many PLRs is to identify the sub-categories, or approaches pursued within a topic area 
and provide statistics on relative interest, and timing for these. Before analyses are conducted the 
appropriate technology categories should be identified, and the data collection tagged, or grouped into 
them. The general concept of grouping was discussed in section 6.1, along with data cleanup. 
The WIPO PLR on Solar Cooking
84
provides an example of how technology categories are used: 
The obtained patent family members were broadly classified into two major segments: 
84
http://www.wipo.int/patentscope/en/programs/patent_landscapes/reports/solar_cooking.htm
l  
89 
•  Segment I – Complete solar cooking systems/solutions  
•  Segment II – Components only/also for solar cooking applications  
"Segment I" mainly comprises patent family members that were grouped primarily based on heating 
techniques like reflected concentration, trapped heating, indirect heating (using steam/vapor cooking 
or using heat transfer medium) and direct solar absorption. Furthermore, they were sub grouped 
under different components like concentrator/reflector, solar tracking device, heat absorber, heat 
storage, heat trap, insulation and other accessories. 
"Segment II" comprises patent family members that were grouped primarily based on different types 
of components only/also used for solar cooking applications, whereas the components include 
concentrator/reflector, collector, solar tracking device, heat absorber and other accessories.  
Technology categories are sometimes identified using the patent data itself, for instance, with 
classification codes, but ideally they should be generated based on input from a subject-matter expert 
based on an industry standard view on how approaches are categorized. Using a market or industry-
based approach to creating categories will make it easier for the clients of the PLR to identify with the 
technology, and apply it to the environment that they are already comfortable with. Once consensus 
has been reached on the appropriate categories, the analyst has a variety of methods for grouping the 
documents. At this point, the analyst should also decide whether a single document can only appear 
in a single category or, if it deals with several potential approaches, be a part of multiple categories. If 
documents can only reside in a single category than a judgment will have to be made on which 
category best represents the main focus of the document. Under these circumstances, the analyst 
should probably refer to what is covered in the independent claims to make this determination. Five 
methods for grouping documents into categories will be discussed in this section. Regardless of which 
approach the analyst takes, their choice on document inclusion in multiple categories, and the method 
for grouping the documents, should be clearly stated in the Methodology section of the report. 
As covered in section 4.2.1.4, patent documents are assigned classification codes when patenting 
authorities process them. Classification codes represent a hierarchical means for sorting documents 
into technology subcategories, and since an examiner vets them they would appear to be a good 
choice for identifying, and creating technology categories. Under ideal circumstances, the 
classification codes would conform to the market or industry thoughts on technological categories, 
but, unfortunately, this is rarely the case. Examiners, to help segment work in a patent office, create 
classification codes, and it is a happy accident when they align with the business needs of a PLR 
client. Classification codes also present difficulties since different patent offices sometimes use 
different systems, and even when the same system is used, can apply the codes at different levels of 
granularity. Codes are often the first place an analyst will look for technology categories, but 
frequently other methods will need to be used to meet the expectations of a client. 
Analysts can also populate categories by creating individual search strategies for each of them. This 
method allows for large collections of documents to be grouped, but works most effectively when 
there are clear distinction between the categories and a small number of documents that would fall 
into multiple categories. Once again, ideally, text from the claims would be used for conducting these 
searches. 
Many analysts will generate categories on the fly while they are manually reviewing documents for 
precision, as discussed earlier, or in conjunction with an effort to group them manually. An electronic 
spreadsheet, pre-loaded with titles, abstracts, and the independent claims, is often used to collect this 
Documents you may be interested
Documents you may be interested