王朝百科
分享
 
 
 

Web数据挖掘:超文本数据的知识发现

王朝百科·作者佚名  2010-07-11  
宽屏版  字体: |||超大  

版权信息书 名: Web数据挖掘:超文本数据的知识发现

Web数据挖掘:超文本数据的知识发现

作者:(印度)(SoumenChakrabarti)查凯莱巴蒂

出版社:人民邮电出版社

出版时间: 2009

ISBN: 9787115194046

开本: 16

定价: 59.00 元

内容简介《Web数据挖掘》是信息检索领域的名著,深入讲解了从大量非结构化Web数据中提取和产生知识的技术。书中首先论述了Web的基础(包括Web信息采集机制、Web标引机制以及基于关键字或基于相似性搜索机制),然后系统地描述了Web挖掘的基础知识,着重介绍基于超文本的机器学习和数据挖掘方法,如聚类、协同过滤、监督学习、半监督学习,最后讲述了这些基本原理在Web挖掘中的应用。《Web数据挖掘》为读者提供了坚实的技术背景和最新的知识。

《Web数据挖掘》是从事数据挖掘学术研究和开发的专业人员理想的参考书,同时也适合作为高等院校计算机及相关专业研究生的教材。

作者简介SoumenChakrabarti,Web搜索与挖掘领域的知名专家,ACMTransactionsontheWeb副主编。加州大学伯克利分校博士,目前是印度理工学院计算机科学与工程系副教授。曾经供职于IBMAlmaden研究中心,从事超文本数据库和数据挖掘方面的工作。他有丰富的实际项目开发经验,开发了多个Web挖掘系统,并获得了多项美国专利。

编辑推荐《Web数据挖掘》是Web挖掘与搜索引擎领域的经典著作,自出版以来深受好评,已经被斯坦福、普林斯顿、卡内基梅隆等世界名校采用为教材。书中首先介绍了Web爬行和搜索等许多基础性的问题,并以此为基础,深入阐述了解决Web挖掘各种难题所涉及的机器学习技术,提出了机器学习在系统获取、存储和分析数据中的许多应用,并探讨了这些应用的优劣和发展前景。

《Web数据挖掘》分析透彻,富于前瞻性,为构建Web挖掘创新性应用奠定了理论和实践基础,既适用于信息检索和机器学习领域的研究人员和高校师生,也是广大Web开发人员的优秀参考书。

目录INTRODUCTION

1.1CrawlingandIndexing

1.2TopicDirectories

1.3ClusteringandClassification

1.4HyperlinkAnalysis

1.5ResourceDiscoveryandVerticalPortals

1.6Structuredvs.UnstructuredDataMining

1.7BibliographicNotes

PARTⅠINFRASTRUCTURE

2CRAWLINGTHEWEB

2.1HTMLandHTTPBasics

2.2CrawlingBasics

2.3EngineeringLarge-ScaleCrawlers

2.3.1DNSCaching,Prefetching,andResolution

2.3.2MultipleConcurrentFetches

2.3.3LinkExtractionandNormalization

2.3.4RobotExclusion

2.3.5EliminatingAlready-VisitedURLs

2.3.6SpiderTraps

2.3.7AvoidingRepeatedExpansionofLinksonDuplicatePages

2.3.8LoadMonitorandManager

2.3.9Per-ServerWork-Queues

2.3.10TextRepository

2.3.11RefreshingCrawledPages

2.4PuttingTogetheraCrawler

2.4.1DesignoftheCoreComponents

2.4.2CaseStudy:Usingw3c-1ibwww

2.5BibliographicNotes

3WEBSEARCHANDINFORMATIONRETRIEVAL

3.1BooleanQueriesandtheInvertedIndex

3.1.1StopwordsandStemming

3.1.2BatchIndexingandUpdates

3.1.3IndexCompressionTechniques

3.2RelevanceRanking

3.2.1RecallandPrecision

3.2.2TheVector-SpaceModel

3.2.3RelevanceFeedbackandRocchio'sMethod

3.2.4ProbabilisticRelevanceFeedbackModels

3.2.5AdvancedIssues

3.3SimilaritySearch

3.3.1Handling"Find-Similar"Queries

3.3.2EliminatingNearDuplicatesviaShingling

3.3.3DetectingLocallySimilarSubgraphsoftheWeb

3.4BibliographicNotes

PARTⅡLEARNING

SIMILARITYANDCLUSTERING

4.1FormulationsandApproaches

4.1.1PartitioningApproaches

4.1.2GeometricEmbeddingApproaches

4.1.3GenerativeModelsandProbabilisticApproaches

4.2Bottom-UpandTop-DownPartitioningParadigms

4.2.1AgglomerativeClustering

4.2.2Thek-MeansAlgorithm

4.3ClusteringandVisualizationviaEmbeddings

4.3.1Self-OrganizingMaps(SOMs)

4.3.2MultidimensionalScaling(MDS)andFastMap

4.3.3ProjectionsandSubspaces

4.3.4LatentSemanticIndexing(LSI)

4.4ProbabilisticApproachestoClustering

4.4.1GenerativeDistributionsforDocuments

4.4.2MixtureModelsandExpectationMaximization(EM)

4.4.3MultipleCauseMixtureModel(MCMM)

4.4.4AspectModelsandProbabilisticLSI

4.4.5ModelandFeatureSelection

4.5CollaborativeFiltering

4.5.1ProbabilisticModels

4.5.2CombiningContent-BasedandCollaborativeFeatures

4.6BibliographicNotes

5SUPERVISEDLEARNING

5.1TheSupervisedLearningScenario

5.2OverviewofClassificationStrategies

5.3EvaluatingTextClassifiers

5.3.1Benchmarks

5.3.2MeasuresofAccuracy

5.4NearestNeighborLearners

5.4.1ProsandCons

5.4.2IsTFIDFAppropriate?

5.5FeatureSelection

5.5.1GreedyInclusionAlgorithms

5.5.2TruncationAlgorithms

5.5.3ComparisonandDiscussion

5.6BayesianLearners

5.6.1NaiveBayesLearners

5.6.2Small-DegreeBayesianNetworks

5.7ExploitingHierarchyamongTopics

5.7.1FeatureSelection

5.7.2EnhancedParameterEstimation

5.7.3TrainingandSearchStrategies

5.8MaximumEntropyLearners

5.9DiscriminativeClassification

5.9.1LinearLeast-SquareRegression

5.9.2SupportVectorMachines

5.10HypertextClassification

5.10.1RepresentingHypertextforSupervisedLearning

5.10.2RuleInduction

5.11BibliographicNotes

6SEMISUPERVISEDLEARNING

6.1ExpectationMaximization

6.1.1ExperimentalResults

6.1.2ReducingtheBeliefinUnlabeledDocuments

6.1.3ModelingLabelsUsingManyMixtureComponents

……

PARTⅢAPPLICATIONS

……

 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如何用java替换看不见的字符比如零宽空格​十六进制U+200B
 干货   2023-09-10
网页字号不能单数吗,网页字体大小为什么一般都是偶数
 干货   2023-09-06
java.lang.ArrayIndexOutOfBoundsException: 4096
 干货   2023-09-06
Noto Sans CJK SC字体下载地址
 干货   2023-08-30
window.navigator和navigator的区别是什么?
 干货   2023-08-23
js获取referer、useragent、浏览器语言
 干货   2023-08-23
oscache遇到404时会不会缓存?
 干货   2023-08-23
linux下用rm -rf *删除大量文件太慢怎么解决?
 干货   2023-08-08
刀郎新歌破世界纪录!
 娱乐   2023-08-01
js实现放大缩小页面
 干货   2023-07-31
生成式人工智能服务管理暂行办法
 百态   2023-07-31
英语学习:过去完成时The Past Perfect Tense举例说明
 干货   2023-07-31
Mysql常用sql命令语句整理
 干货   2023-07-30
科学家复活了46000年前的虫子
 探索   2023-07-29
英语学习:过去进行时The Past Continuous Tense举例说明
 干货   2023-07-28
meta name="applicable-device"告知页面适合哪种终端设备:PC端、移动端还是自适应
 干货   2023-07-28
只用css如何实现打字机特效?
 百态   2023-07-15
css怎么实现上下滚动
 干货   2023-06-28
canvas怎么画一个三角形?
 干货   2023-06-28
canvas怎么画一个椭圆形?
 干货   2023-06-28
canvas怎么画一个圆形?
 干货   2023-06-28
canvas怎么画一个正方形?
 干货   2023-06-28
中国河南省郑州市金水区蜘蛛爬虫ip大全
 干货   2023-06-22
javascript简易动态时间代码
 干货   2023-06-20
感谢员工的付出和激励的话怎么说?
 干货   2023-06-18
 
>>返回首页<<
 
 
静静地坐在废墟上,四周的荒凉一望无际,忽然觉得,凄凉也很美
© 2005- 王朝网络 版权所有