8篇关于新浪微博的计算机毕业论文

今天分享的是关于新浪微博的8篇计算机毕业论文范文, 如果你的论文涉及到新浪微博等主题,本文能够帮助到你 基于新浪微博的信息溯源系统的设计与实现 这是一篇关于新浪微博

今天分享的是关于新浪微博的8篇计算机毕业论文范文, 如果你的论文涉及到新浪微博等主题,本文能够帮助到你

基于新浪微博的信息溯源系统的设计与实现

这是一篇关于新浪微博,信息采集,网络爬虫,信息分析,溯源系统的论文, 主要内容为近年来,微博已经成为一种最受欢迎的在线社交网络平台。随着其高速发展,信息传播量也得到迅猛增长。在如此大的信息量下,微博信息溯源成为微博信息传播领域中的重要研究内容,是微博信息筛选、事件传播态势分析、微博舆情监控等很多相关领域的重要基础。本文设计并实现了基于新浪微博的信息溯源系统。根据实际功能需要,本系统主要划分为新浪微博信息采集和新浪微博信息分析两大子系统,新浪微博信息采集子系统主要包括基于新浪API的信息采集、基于cookie的信息采集、反爬取和数据管理等模块。该子模块通过多线程和增量式爬取信息。获取的微博信息主要包括微博内容、评论列表、转发列表、用户个人信息等多方面。新浪微博信息分析子系统主要包括微博事件分析、用户影响力分析和微博信息溯源等模块。综、合考虑时间和影响力两个因素,对新浪微博中某个事件进行溯源。系统在MyEclipse开发工具下,结合MySQL数据库,前台使用JSP技术进行用户界面的展示,后台采用Java编程语言来实现。系统开发完成后,经过功能测试和非功能测试,证明系统实现了新浪微博信息溯源的目标。本文阐述了从系统需求分析、系统设计、系统实现到系统测试整个过程。系统从信息采集到信息分析,综合应用了网络爬虫、基于API的信息获取、基于LSA的文本聚类、影响力分析等核心技术,实现了基于新浪微博的在线社交网络信息溯源系统。

基于新浪微博舆情采集与倾向性分析系统

这是一篇关于网络舆情,新浪微博,倾向性分析,趋势预测,Spring的论文, 主要内容为随着互联网的飞速发展,互联网的普及率越来越高,人们越来越愿意通过网络表达自己对一些社会热点、突发事件的个人观点。如今的网络舆情颠覆了传统的模式,开始以一种势不可挡的趋势进入到社会层面,对社会造成十分深远的影响。微博集结了互动功能强大、实时性突出、便捷的手机支持以及名人效应等诸多优点,已经逐步取代博客、贴吧等其他老牌的舆情传播平台,对网络舆情的发展起到了推波助澜的作用,它也成为现如今最重要的网络舆情传播平台。微博的关注功能可以将用户们关联到一起,使得信息的传播速度得到历史性的变革,这也使得利用微博信息进行研究从而掌握舆论发展方向成为可能,更可以为政府、企业提供科学的分析结果,提高它们的决策能力,具有极高的社会价值和商业价值。本系统主要分为舆情采集模块、舆情信息预处理模块、舆情信息分析模块、舆情信息服务模块和系统管理模块等五大模块。选择新浪微博作为舆情分析系统的数据来源,利用Java的定时任务对新浪微博的内容进行定时抓取,将获得的页面内容按照新浪微博页面的结构特点进行分解,存入数据库,再利用文本聚类、向量化等分类手段进行分析,最后通过倾向性分析给出结果,并在舆情分析的基础上以图表的形式将舆情在一段时间的走势呈现给用户。在软件层面上,本系统选择SpringMVC、Spring、Hibernate等开源技术作为整体架构,降低各模块之间的耦合程度,提高程序的可扩展性。在采集和页面解析模块中还分别使用到MySQL、HtmlParser、ICTCLAS中文分词系统等开源技术。在系统开发过程中,我们对系统进行了单元测试、功能性测试、性能测试以及安全测试。在测试过程中我们选择“捉妖记”作为关键词进行数据采集,最终获得2015年7月9日至2015年7月21日之间“捉妖记”相关微博432361条,通过对这些数据的去重、去噪、语义分析、文本聚类、词性分类等一系列操作,最终获得了13天当中关于“捉妖记”话题的舆情走势,以电影上映日期7月16日作为分水岭,上映之前“捉妖记”相关的正面微博占比在45%上下浮动,上映之后正面的微博占比提高到了90%以上。在实际应用中,片方可以根据舆情在不同时期的特点,采取不同的宣传策略,以获得利益的最大化。

基于分布式爬虫的社交媒体灾害信息挖掘系统的设计与实现

这是一篇关于分布式爬虫,新浪微博,地名识别,时空特征分析的论文, 主要内容为近些年来我国社交媒体发展迅猛,社交媒体如新浪微博等每天都会产生大量的数据,如何提高社交媒体数据采集效率,并从中挖掘出灾害相关信息,尤其是时间和空间信息,对于灾害的信息管理和救灾防灾决策支持具有重要意义。基于分布式爬虫的社交媒体灾害信息挖掘系统,通过多节点分布式模式高效采集数据,并提取出其中的时间特征分布和空间特征分布信息,为灾害治理提供数据支撑。灾害信息挖掘系统,使用B/S模式,采用了数据采集、数据存储、数据挖掘和数据展示的四层架构设计。数据采集层以Scrapy-Redis框架为基础,以阿里云服务器上部署的4个Cent OS服务器为爬虫子节点,以新浪微博平台为数据源,以反爬虫技术为辅助手段进行数据抓取。数据存储层包括两个步骤,对原始微博数据进行清洗,将数据存入My SQL数据库。数据挖掘层是对微博数据进行灾害信息挖掘,主要是对时间特征信息和空间特征信息的提取,时间特征信息利用数据库查询技术进行提取,微博文本地名识别采用地名库匹配以及地名前后缀算法同时进行,并借助高德地图开发接口进行逆编码转换成经纬度坐标。数据展示层是将采集的微博信息和分析处理后的数据信息,以图表等形式进行可视化,Django框架搭建的网页是进行数据展示的基础,微博文本信息、微博用户信息和处理分析后的时间特征信息是采用ECharts库以图表形式展示,空间特征信息则采用高德地图展示位置分布。通过四层架构设计完成对社交媒体数据的高效抓取和灾害信息挖掘以及可视化。灾害信息挖掘系统使用发生时间不同并且影响范围也不相同的利奇马台风、白鹿台风灾害作为案例,抓取新浪微博相关数据,挖掘时空特征后,分别进行时间分布分析和空间分布分析。实验结果表明,每次灾害的数据采集时间均能保持在30分钟以内,并且时空分布均能反映台风灾害的演变情况。灾害信息挖掘系统能高效抓取社交媒体数据,并从中挖掘出灾害信息,可应用于包括台风在内的多种灾害场景,为灾害信息管理提供了新的思路。

阿里巴巴并购新浪微博的动因、效应及风险防范研究

这是一篇关于阿里巴巴,新浪微博,互联网企业,并购动因与效应,并购风险与防范的论文, 主要内容为2012年以来,大量互联网企业以并购的方式扩张经营规模,对世界经济产生了巨大的影响。特别是2015年以来阿里巴巴并购优酷土豆、58同城并购赶集网、携程旅游并购去哪儿网、万达集团并购传奇影业、腾讯并购荷兰手游开发商Supercell、京东并购一号店等众多并购事件的发生,众多互联网企业以迅雷不及掩耳之势掀起了一股巨大的井喷式的并购浪潮。随着“互联网+”的兴起和“中国制造2025”国家战略的推进,未来会有越来越多的传统企业进入互联网行业,而且在互联网行业中企业之间的界限将越来越模糊,跨界并购的现象将十分普遍。2008年阿里巴巴开始打造电子商务生态系统,以大数据业务为核心,着力发展电商、金融、物流,向健康、快乐和全球化业务拓展。阿里巴巴作为我国目前最大的电商,新浪微博作为我国当前最有影响的互联网社交媒体之一,二者的并购产生了我国最大的社交电商平台。本文在借鉴国内外有关企业并购理论研究和实践经验的基础上,分析了阿里巴巴与新浪微博的发展状况以及阿里巴巴并购新浪微博的过程和动因,探究了阿里巴巴并购新浪微博的协同效应和规模经济效应,从并购前的目标公司财务风险、并购中的融资与支付风险、并购后的战略整合风险等方面揭示了阿里巴巴集团并购新浪微博的风险,进而从并购前、并购中、并购后等环节提出了阿里巴巴并购风险的防范策略。本文的主要结论有:(1)阿里巴巴并购新浪微博的动因源于实现规模经济效应、顺应市场发展需要、提高综合竞争实力、拓宽自身融资渠道等需要,这是并购双方都追求的目标;(2)阿里巴巴并购新浪微博的效应体现在两个方面:一方面,阿里巴巴对新浪微博的并购给双方都带来了比并购前更大的收益,其营业收入和净利润均明显上升,产生了1+1大于2的显著协同效应;另一方面,阿里巴巴并购新浪微博产生了规模经济效应;(3)阿里巴巴并购新浪微博的风险集中于并购前的选择目标公司财务风险、并购过程中的融资与支付风险,以及并购实施后的双方战略整合风险等三个方面;(4)阿里巴巴并购新浪微博风险的防范,应着力于三个方面:通过明确并购意图、寻找锁定并购目标、构建风险评估体系、优化收购方案等防控并购前风险;通过规避融资支付风险等防控并购中风险;通过防范业务整合、人力资源整合、企业文化整合、企业战略整合等并购中的风险以防控并购后的风险。

基于特征融合的新浪微博虚假信息检测研究

这是一篇关于新浪微博,虚假信息,网络谣言,情感分析,BERT的论文, 主要内容为随着互联网技术的蓬勃发展,以及以新浪微博、知乎、Twitter等为代表的各大社交媒体的不断涌现,人们获取信息的方式最初借助传统的纸质与多媒体载体,到如今,各大网络社交平台已成为人们获取信息的重要渠道之一。由于社交平台本身具备匿名性、平等性、互动性等特点,因此用户能够通过平台自由发表自己的观点,不受地域、时间等因素的限制,但也正因为这样的特点,一些居心不良的人也能够不负责任地发表一些被扭曲或者凭空捏造不存在的事情,加以一定的方法煽动网民们的情绪,以达到吸引流量等个人目的,从而给人们与社会的稳定带来威胁,如著名的“抢盐”事件等。尽管国家已采取相关措施用以维持网络安全环境,但仅通过人工的官方手段难以处理每天增长的海量数据,同时考虑到目前相关领域应用机器学习的方法存在一定的局限性,因此本文以常见的深度学习方法为基础,提出特征融合的方法用以虚假信息检测领域的研究中。本文的主要工作如下:首先,本文以新浪微博这一社交平台为基础,主要利用单一文本特征进行建模,作为本文的基础实验,这一部分的内容主要包括两个部分:一是探究不同粒度的文本表示方式对实验结果的影响,即引入公开且应用较为成熟的预训练字向量与词向量用以文本表示,以保证文本向量的质量,实验表明,基于字向量的文本表示方法明显优于基于词向量的表示方法,这一结论与自然语言处理领域其他问题得到的结论相一致;二是基于BERT模型在NLP领域多种任务重表现出的优越效果,将BERT模型引入,探究其在解决虚假信息检测问题中的优势,实验表明,BERT模型的引入有助于提高虚假信息识别的准确率,并且在多个模型的结果出表现出其稳定性。其次,本文认为虚假信息为吸引网民们的关注,往往带有较为强烈的情感以煽动网民情绪,而在目前谣言检测领域的相关研究中,对于情感特征的挖掘与利用大多停留在较为浅层的阶段,因此本文提出特征融合的方法加入情感特征,具体内容为利用目前公开的应用于新浪微博这一场景的情感分类语料作为训练集,利用BERT+Bi-LSTM模型用于训练情感分类模型,再将本文虚假信息数据集当做测试集,获取情感分析模型隐藏层输出向量与之前的单一文本特征向量进行结合,用于重新训练新的融合情感特征的虚假信息检测模型,以提高虚假信息识别的效果。实验结果表明,本文方法能够在较为理想的效果的基础上,最优模型的整体准确率最高提升1.6%,达到94.90%。最后,由于微博用户除了通过文字发表自己的观点之外,还能够通过其他多媒体形式用来加强观点表达,如视频、图片等,考虑到视频往往具有更短的有效性,本文数据集中绝大部分的视频文件已不能正常播放,因此本文主要利用图片数据作为文本补充特征,利用Res Net模型用以提取图片特征,将提取得到的图片特征与单一文本特征进行结合,用以训练新的融合图片特征的虚假信息检测模型,以提高虚假信息识别的效果。实验结果表明,相比于基于单一文本特征的实验结果,本部分多模态部分减少了约一半的数据量,因此本文方法可能导致在整体准确率上没有得到明显提升,甚至略有下降,但就虚假信息部分的识别准确率而言,在本身具备较好实验效果的基础上,其准确率依然保持约4%的提升幅度。相比于融合情感特征的实验结果,本部分的实验结果也能够说明,相比于情感特征,图片特征在虚假信息检测中具有更为重要的作用。总的来说,虽然引入特定领域的预训练字/词向量已经能够获得较好的效果,但是BERT模型的引入依然对实验效果的提升具有较为明显的作用,同时文本基于这一模型所提出的融合情感特征与图片特征的方法,主要侧重于特征层面的融合,从实验结果上看,两种方法都表现出较为理想且稳定的效果,说明本文方法在一定程度上对于提高虚假信息检测的准确性是有效的。此外,本文研究也能够为虚假信息或网络谣言检测领域在未来的研究与探索奠定一定的基础。

基于分布式爬虫的社交媒体灾害信息挖掘系统的设计与实现

这是一篇关于分布式爬虫,新浪微博,地名识别,时空特征分析的论文, 主要内容为近些年来我国社交媒体发展迅猛,社交媒体如新浪微博等每天都会产生大量的数据,如何提高社交媒体数据采集效率,并从中挖掘出灾害相关信息,尤其是时间和空间信息,对于灾害的信息管理和救灾防灾决策支持具有重要意义。基于分布式爬虫的社交媒体灾害信息挖掘系统,通过多节点分布式模式高效采集数据,并提取出其中的时间特征分布和空间特征分布信息,为灾害治理提供数据支撑。灾害信息挖掘系统,使用B/S模式,采用了数据采集、数据存储、数据挖掘和数据展示的四层架构设计。数据采集层以Scrapy-Redis框架为基础,以阿里云服务器上部署的4个Cent OS服务器为爬虫子节点,以新浪微博平台为数据源,以反爬虫技术为辅助手段进行数据抓取。数据存储层包括两个步骤,对原始微博数据进行清洗,将数据存入My SQL数据库。数据挖掘层是对微博数据进行灾害信息挖掘,主要是对时间特征信息和空间特征信息的提取,时间特征信息利用数据库查询技术进行提取,微博文本地名识别采用地名库匹配以及地名前后缀算法同时进行,并借助高德地图开发接口进行逆编码转换成经纬度坐标。数据展示层是将采集的微博信息和分析处理后的数据信息,以图表等形式进行可视化,Django框架搭建的网页是进行数据展示的基础,微博文本信息、微博用户信息和处理分析后的时间特征信息是采用ECharts库以图表形式展示,空间特征信息则采用高德地图展示位置分布。通过四层架构设计完成对社交媒体数据的高效抓取和灾害信息挖掘以及可视化。灾害信息挖掘系统使用发生时间不同并且影响范围也不相同的利奇马台风、白鹿台风灾害作为案例,抓取新浪微博相关数据,挖掘时空特征后,分别进行时间分布分析和空间分布分析。实验结果表明,每次灾害的数据采集时间均能保持在30分钟以内,并且时空分布均能反映台风灾害的演变情况。灾害信息挖掘系统能高效抓取社交媒体数据,并从中挖掘出灾害信息,可应用于包括台风在内的多种灾害场景,为灾害信息管理提供了新的思路。

河南省公共图书馆微服务推广研究

这是一篇关于公共图书馆,微服务推广,微信,新浪微博的论文, 主要内容为随着互联网和新媒体的不断发展,全国各个图书馆纷纷顺应时代发展利用新媒体开展微服务。各个图书馆投入人力、物力等资源利用新媒体开展微服务,但各个图书馆微服务的推广和使用情况参差不齐。这就令人深思,图书馆开展微服务是希望用户能随时随地的通过移动终端享受图书馆的各种资源与服务,同时也能提高馆藏资源的利用率,为什么各个图书馆微服务其推广和使用效果却不尽人意。目前,国内图书馆还处于推广微服务的探索和发展阶段。本文选取河南省119家公共图书馆调查它们微服务平台的推广现状和效果。选取国内公共图书馆广泛使用的新媒体——微信和新浪微博为微服务研究平台。从微服务平台推广现状、微服务平台推广效果,影响微服务推广的因素和微服务推广存在的问题等这几个方面研究,通过调查分析,明确影响河南省公共图书馆微服务推广的因素,找出河南省公共图书馆微服务推广存在的问题,并给出相应解决微服务推广的策略,以期能够提高河南省公共图书馆微服务的整体水平,同时能够对我国公共图书馆微服务发展起到一定的推动作用。

基于分布式爬虫的社交媒体灾害信息挖掘系统的设计与实现

这是一篇关于分布式爬虫,新浪微博,地名识别,时空特征分析的论文, 主要内容为近些年来我国社交媒体发展迅猛,社交媒体如新浪微博等每天都会产生大量的数据,如何提高社交媒体数据采集效率,并从中挖掘出灾害相关信息,尤其是时间和空间信息,对于灾害的信息管理和救灾防灾决策支持具有重要意义。基于分布式爬虫的社交媒体灾害信息挖掘系统,通过多节点分布式模式高效采集数据,并提取出其中的时间特征分布和空间特征分布信息,为灾害治理提供数据支撑。灾害信息挖掘系统,使用B/S模式,采用了数据采集、数据存储、数据挖掘和数据展示的四层架构设计。数据采集层以Scrapy-Redis框架为基础,以阿里云服务器上部署的4个Cent OS服务器为爬虫子节点,以新浪微博平台为数据源,以反爬虫技术为辅助手段进行数据抓取。数据存储层包括两个步骤,对原始微博数据进行清洗,将数据存入My SQL数据库。数据挖掘层是对微博数据进行灾害信息挖掘,主要是对时间特征信息和空间特征信息的提取,时间特征信息利用数据库查询技术进行提取,微博文本地名识别采用地名库匹配以及地名前后缀算法同时进行,并借助高德地图开发接口进行逆编码转换成经纬度坐标。数据展示层是将采集的微博信息和分析处理后的数据信息,以图表等形式进行可视化,Django框架搭建的网页是进行数据展示的基础,微博文本信息、微博用户信息和处理分析后的时间特征信息是采用ECharts库以图表形式展示,空间特征信息则采用高德地图展示位置分布。通过四层架构设计完成对社交媒体数据的高效抓取和灾害信息挖掘以及可视化。灾害信息挖掘系统使用发生时间不同并且影响范围也不相同的利奇马台风、白鹿台风灾害作为案例,抓取新浪微博相关数据,挖掘时空特征后,分别进行时间分布分析和空间分布分析。实验结果表明,每次灾害的数据采集时间均能保持在30分钟以内,并且时空分布均能反映台风灾害的演变情况。灾害信息挖掘系统能高效抓取社交媒体数据,并从中挖掘出灾害信息,可应用于包括台风在内的多种灾害场景,为灾害信息管理提供了新的思路。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码海岸 ,原文地址:https://m.bishedaima.com/lunwen/47351.html

相关推荐

发表回复

登录后才能评论