1500字范文,内容丰富有趣,写作好帮手!
1500字范文 > 全国职业院校技能大赛 “大数据技术与应用”—模拟赛题(四)

全国职业院校技能大赛 “大数据技术与应用”—模拟赛题(四)

时间:2018-10-18 18:05:52

相关推荐

全国职业院校技能大赛 “大数据技术与应用”—模拟赛题(四)

全国职业院校技能大赛 “大数据技术与应用” ——模拟赛题(四)

文章适合了解大数据技术与应用技能大赛 赛题。文章在编写过程中难免有疏漏和错误,欢迎大佬指出文章的不足之处;更多内容请点进👉Lino_White👈查看。

未来的世界充满着各式各样的数据,我们该怎么好好利用起来呢?开启正文吧~~~

赛题文字过多,文章有删除了部分,需要完整的文档请看评论区

持续更新相关赛题,包括国赛模拟题10套、广东省真题赛题、相关比赛技巧、难点突破技巧等等,需要的关注小编或者公众号 NoWrite

# {文字较多,不要觉得繁琐,比赛文字更多,这里小编已经删减了许多!认真看,想要赢静下心,仔细看每个字!!!}

背景描述

据央视财经报道,我国O2O市场规模突破万亿元,O2O市场存在着巨大的潜力。特别是餐饮和外卖行业,占据市场较大份额,并且业务增长迅速。截至底,全国外卖总体订单量已超过171.2亿单,同比增长7.5%,全国外卖市场交易规模达到8352亿元,同比增长14.8%。我国外卖用户规模已接近5亿人,其中80后、90后是餐饮外卖服务的中坚消费力量,消费者使用餐饮外卖服务也不再局限于传统的一日三餐,下午茶和夜宵逐渐成为消费者的外卖新宠。为把握这一商业机遇,ChinaSkills公司计划进驻外卖平台市场,现需对大规模成熟外卖平台进行详细评估调研,采集多方多维度数据,寻找行业痛点,摸清市场需求,以技术为手段为投资保驾护航。

为完成该项工作,你所在的小组将应用大数据技术,以Python、Java、Scala作为整个项目的基础开发语言,基于大数据平台综合利用MapReduce、Spark、MySQL、Scrapy、Flask、ECharts等,对数据进行获取、处理、清洗、挖掘、分析、可视化呈现,力求实现对公司未来的重点战略方向提出建议。

你们作为该小组的技术人员,请按照下面任务完成本次工作,并编制综合报告。

模块A:环境搭建(15分)

环境说明:

编号 主机名 类型 用户 密码

1 master 主节点 root passwd

2 slave1 从节点 root passwd

3 slave2 从节点 root passwd

补充说明:主节点MySQL数据库用户名/密码:root/Password123$

相关软件安装包在/chinaskills目录下

所有模块中应用命令必须采用绝对路径

任务一:Hadoop 全分布部署管理

本环节需要使用root用户完成相关配置,安装Hadoop需要配置前置环境。命令中要求使用绝对路径,具体部署要求如下:

1、将/chinaskills下的JDK包解压到/usr/local/src路径,将完整命令复制粘贴到对应报告中;

2、修改/root/.bash_profile文件,设置JDK环境变量,并使环境变量只对当前root用户生效将环境变量配置内容复制粘贴至对应报告中;

3、从master复制上面步骤配置的JDK环境变量文件到slave1、slave2节点,命令和结果复制粘贴在对应报告中;

4、配置SSH密钥登录,实现从master登录到slave1,将登录命令和结果复制粘贴在对应报告中;

5、根据要求修改Hadoop相关文件(hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml),并初始化Hadoop。

1)将配置文件hadoop-env.sh变更内容复制粘贴在对应报告中;

2)将配置文件core-site.xml变更内容复制粘贴在对应报告中;

3)初始化Hadoop环境,将命令及结果复制粘贴在对应报告中;

6、查看master及slave1节点jps进程,将其命令及结果复制粘贴至对应报告中。

任务二:Sqoop部署管理

本环节需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体部署要求如下:

1、解压/chinaskills路径下的Sqoop安装包到/usr/local/src路径下,并使用相关命令,修改解压后文件夹名为sqoop,进入sqoop文件夹,并将查看内容复制粘贴至对应报告中;

2、修改Sqoop环境变量,并使环境变量只对当前root用户生效;具体任务要求:修改基于当前用户root的环境变量,将环境变量配置内容复制粘贴至对应报告中;

3、修改并配置sqoop-env.sh文件,将命令及结果复制粘贴至对应报告中;

4、测试Sqoop连接MySQL数据库是否成功,将命令及结果复制粘贴至对应报告中。具体任务要求:使用sqoop命令连接MySQL数据库,查询MySQL中所有数据库名称,将命令及结果复制粘贴至对应报告中;

任务三:Hive 部署管理

本环节需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体部署要求如下:

1、将指定路径下的Hive安装包解压到(/usr/local/src)下,使用绝对路径,将命令复制并粘贴至对应报告中;

2、把解压后的apache-hive-1.1.0-bin文件夹更名为hive;进入hive文件夹,并将查看命令及结果复制并粘贴至对应报告中;

3、设置Hive环境变量,并使环境变量只对当前root用户生效;并将环境变量配置内容复制并粘贴至对应报告中;

4、将Hive安装目录里hive-default.xml.template文件更名为hive-site.xml;并将更改命令复制并粘贴至对应报告中;

5、通过VI编辑器配置hive-site.xml文件,将MySQL数据库作为Hive元数据库。将配置文件Hive元存储相关内容复制并粘贴至对应报告中;

6、初始化Hive元数据,将MySQL数据库JDBC驱动拷贝到Hive安装目录的lib文件夹下;并通过schematool执行初始化,将初始化结果复制粘贴至对应报告中;

7、启动Hive并保存命令输出结果,将结果输出复制粘贴至对应报告中。

模块B:数据采集与处理 (20分)

项目背景说明

1、查看餐饮外送统计平台网站源码结构。

1)打开网站,在网页中右键点击检查,或者F12快捷键,查看源码页面;

2)检查网站:浏览网站源码查看所需内容。

2、从餐饮外送统计平台中采集需要数据,按照要求使用Python语言编写代码工程,获取指定数据项,并对结果数据集进行必要的数据处理。请将符合任务要求的结果复制粘贴至对应报告中。

具体步骤如下:

1)创建工程工程项目:C:\food_delivery

2)构建采集请求

3)按要求定义相关字段

4)获取有效数据

5)将获取到的数据保存到指定位置

6)对数据集进行基础的数据处理

至此已从餐饮外送统计平台中获取所需数据,并完成了必要的基础的数据处理。

3、自行创建Scrapy工程项目food_delivery,路径为C:\ food_delivery按照任务要求从餐饮外送统计平台中获取数据。提取“商户数据”页面相关字段(包括平台餐厅ID、餐厅名称、城市等全部有效数据项),保存至文件restaurant_data.json;再提取“配送平台灰测维度数据”页面相关数据(包括餐厅名称、城市、营业时长等全部字段)保存至文件grey_test.json。

4、每条数据记录请以单独一行保存,信息存储格式为key:value。文件保存路径为:C:\output。

示例:

{" rest_id ": “***”, " rest_name “: “***”,……},

{” rest_id ": “***”, " rest_name ": “***”,……},

……

5、任务中要求将“以下内容及答案完整复制粘贴至对应报告中。”,粘贴到对应报告中的内容示例如下:

配送范围审核相关数据页数为:100

灰度数据对比相关数据页数为:100

任务一:爬取指定数据页面

自行创建Scrapy工程编写爬虫代码,爬取“POI数据”页面与“灰度数据对比”页面相关数据,通过爬虫代码分页爬取,以合理的程序逻辑判断相关数据包含的页数并将一下内容及答案完整复制粘贴至对应报告中。

示例格式:

POI数据的页数为:

灰度数据对比相关数据的页数为:

任务二:爬取数据至指定文件

运行代码,爬取网页数据至指定文件。查看文件并填写采集到的记录条数,并将答案复制粘贴至对应报告中。

示例格式:

POI.json的行数为:

grey_value.json的行数为:

任务三:各商家“30天销量”数据处理

POI.json文件中,“商家id”字段值重复的样本,请以多条样本记录的“30天销量”属性均值作为该属性的值,并删除多余样本。请在PyCharm控制台打印输出删除的样本条数,并将打印语句复制粘贴至对应报告中。

示例格式:

=因重复样本记录,删除样本条数为***条=

任务四:数据探索

针对爬取的grey_value数据,利用DataFrame.describe方法探索数据基本情况,将数据基本情况复制粘贴至对应报告中。

任务五:缺失值统计

针对缺失值较多的属性“推单数-8日”,“有效完成率-8日”,“超时率-8日”,请分别计算下列任务,并将正确结果复制粘贴至对应报告中。

(1)属性“推单数-8日”空值记录条数为: ,中位数为: 。

(2) 属性“有效完成率-8日”空值记录条数为: ,平均值为: 。

(3)属性“超时率-8日”空值记录条数为: ,平均值为: 。

(4) 请根据计算结果,对数据集中存在空值的字段进行填充。查看填充后的数据集前5条记录,将查看结果复制粘贴至对应报告中。

任务六:日志输出

将Scrapy日志(日志等级设置为INFO)以时间命名输出至路径:C:\ food_delivery\output,并将日志内容复制粘贴至对应报告中。

模块C:数据清洗、分析与挖掘(25分)

项目背景说明

餐饮外卖平台的核心价值体现在配送,而配送的价值则依赖于商家与客户的双向选择。外卖平台通常会通过内容激活消费者和商家两个群体的活跃度。消费者会参考平台展示的内容选择商家,商家也会以消费者评价与平台统计数据为依据调整策略,由此再吸引更多的用户下单、评论、形成正向循环。保证配送的时效与品质是从优化用户体验的角度,吸引更多的用户参与,进而带动商家不断入驻。由此,商家、消费者、骑手在平台上形成越来越多的真实可靠的数据,帮助消费者更好的做出消费决策,同时促进商家提高服务质量。而平台通过数据,不断调整优化服务,从而不断提升这种多边网络效应。提升网络效应的直接结果就是用户和商家规模大幅提升,进而形成规模效应——降低获客成本、提高效益,并且不断提升自己的行业壁垒。

为探索各大外卖平台的市场策略与经营模式,现已从及平台获取到了原始数据集,包含“id,request_id,walle_id,retailer_id,retailer_name,retailer_address,etailer_location,city_id,city_name,grid_id,carrier_id,team_id,applicant_id,applicant_name,first_auditor_role,first_auditor_candidate_ids,first_auditor_id,first_auditor_name,second_auditor_role,second_auditor_candidate_ids,second_auditor_id,second_auditor_name,status,max_distance_before_edit,min_distance_before_edit,max_distance_after_edit,min_distance_after_edit,area_before_edit,area_after_edit,created_at,updated_at,申请时间,创建时间”等字段,为保障用户隐私和行业敏感信息,已经对数据脱敏。数据脱敏是指对某些敏感信息通过脱敏规则进行数据的变形,实现敏感隐私数据的可靠保护。在涉及客户安全数据或一些商业性敏感数据的情况下,对真实数据进行改造并提供测试使用,如身份证号、手机号等个人敏感信息都需要进行数据脱敏。本题已将脱敏后的数据存放于平台对应任务/chinaskills目录下。工程所需配置文件pom.xml存放于“C:\清洗配置文件”。任务中所有命令务必使用绝对路径。

任务一:数据清洗

子任务1

任务背景:

数据源为众多网站及平台的数据汇总,且为多次采集的结果,在整合多来源数据时可能遇到数据冲突,或数据拼接导致的属性列矛盾或冗余等情况。请根据任务具体参数要求,针对原始数据集进行清洗,并写入指定的数据库或数据文件,复制并保存结果。

任务描述:

相关数据源文件存放于平台对应任务/chinaskills目录下,请参考模块C中列举的各项字段,按照如下要求编写Spark程序对数据进行清洗,并将结果输出/diliveryoutput1。

1)分析/chinaskills/中数据文件

2)查看属性字段数量异常数据条目

3)程序打包并在Spark平台运行,结果输出至HDFS文件系统/diliveryoutput1

具体任务要求:

1、将相关文件上传至HDFS新建目录/platform_data中,编写Spark程序,剔除属性列与首行属性名称个数不相符的数据条目,并在程序中以打印语句输出异常条数。将打印输出结果复制并保存至对应报告中。(复制内容需包含打印语句输出结果的上下各 5 行运行日志)。

示例格式:

=属性列数目异常数据条数为***条=

2、程序打包并在Spark平台运行,将剔除异常数据后的结果数据集输出至HDFS文件系统/diliveryoutput1。并查看输出文件前10行,将查看命令与执行结果复制粘贴至对应报告中。

子任务2

任务背景:

数据的维数是指数据具有的特征数量,数据特征矩阵过大, 将导致计算量比较大,训练时间长的等问题。当数据存在冗余属性时,对多余属性剔除的过程,称为“数据降维”。降维的好处十分明显,它不仅可以数据减少对内存的占用,还能够加快学习算法的执行与收敛。请根据任务具体要求,针对原始数据集中可能存在的冗余属性进行排查,复制并保存结果。

任务描述:

相关数据源文件存放于平台/chinaskills,请参考模块C中列举的各项字段,判断属性“申请时间”、“创建时间”与“created_at”、“updated_at”是否为重复属性。请按照如下要求编写Spark程序对数据进行清洗,并将结果输出/diliveryoutput1。

1)分析/chinaskills/中数据文件

2)排除属性列“申请时间”、“创建时间”与“created_at”、“updated_at”是否为重复属性

3)程序打包并在Spark平台运行

具体任务要求:

3、将相关文件上传至HDFS新建目录/platform_data中,查看原始数据集条数,请将查看命令及结果复制并粘贴至对应报告中。

4、如果仅考虑年、月、日数据,忽略时刻信息,“申请时间”、“创建时间”与“created_at”、“updated_at”是否为重复属性?请编写Spark程序,并在程序中以打印语句输出两对属性对应相等的数据条数。将打印输出结果以及你的结论复制并粘贴至对应报告中。(复制内容需包含打印语句输出结果的上下各 5 行运行日志)。

示例格式:

=两组属性同时相等的数据条数为***条=

结论:“申请时间”、“创建时间”与“created_at”、“updated_at”(是/不是)重复属性。

如果数据相等的比例超过原始数据集的90%,则剔除属性“created_at”与“updated_at”, 并将结果数据集保存至/diliveryoutput2。

任务二:数据挖掘分析

任务背景:

外卖的配送范围一般由外卖平台的业务人员为商家设定,商家也可以根据实际情况向平台申请修改配送范围。在申请配送范围修改时,审核员将考虑实际道路限制、综合运力成本、顾客等待时长等因素,对配送范围变更的申请进行考量,最终做出通过/拒绝/驳回的结果判定。一级审核员通常为该地区的渠道经理,针对运力等综合因素对审核记录进行考量;二级审核员为外卖平台专职审核人员,将综合考虑配送范围的合理性及更改后的用户体验。考核员的审核具有一定的时效要求,审核效率直接影响合作商家平台活跃性以及商家的合作体验。下面请根据任务具体要求,分析范围审核相关数据。

任务描述:

请根据你的数据清洗4、(任务数字)的结论选择数据源(/diliveryoutput1或/diliveryoutput2),编写 Spark 程序,按照如下要求实现对数据的分析,并将结果输出至 HDFS 文件系统中。

1)解析数据清洗任务结果数据集

2)计算配送范围申请的审核时长

3)分析配送范围变更幅度对审核结果的影响

4)程序打包并在Spark平台运行,结果输出至HDFS文件系统/diliveryoutput3

具体任务要求:

1、从审核申请到审核完成的时间差为一条审核记录的处理时长,请编写Spark程序,计算全部申请记录的平均处理时长(单位为分钟,忽略“秒“级数值),并在程序中以打印语句输出结果。将打印输出结果复制并粘贴至对应报告中。(复制内容需包含打印语句输出结果的上下各 5 行运行日志)。

示例格式:

=平均申请处理时长为***分钟=

2、为保证用户体验,申请的审批应具有时效性。公司规定在当天18:00前递交的范围审核申请,处理时间应在12小时以内;在当天18:00后递交的范围审核申请,应在第二天中午12:00前审核完成。请根据这一标准,分别统计全部数据记录中,在18:00前/后递交的申请超时记录数,在并在程序中以打印语句输出结果。将打印输出结果复制并粘贴至对应报告中。(复制内容需包含打印语句输出结果的上下各 5 行运行日志)。

示例格式:

=18:00前递交申请的记录中,超时记录数为***条=

=18:00后递交申请的记录中,超时记录数为***条=

3、申请前后配送范围的最大/最小距离标识了商家配送范围的变更幅度,请统计最大配送距离或最小配送距离在申请前后变更幅度超过以下百分比数值时:40%、50%、60%、70%、80%、90%,申请的通过率分别为多少(百分比数值保留小数点后2位)。请在程序中以打印语句输出结果,并打印输出结果复制并粘贴至对应报告中。(复制内容需包含打印语句输出结果的上下各 5 行运行日志)。

示例格式:

==申请后最大或最小配送距离超过原始距离的40%,审核通过率为***% ==

==申请后最大或最小配送距离超过原始距离的50%,审核通过率为***% ==

==申请后最大或最小配送距离超过原始距离的60%,审核通过率为***% ==

==申请后最大或最小配送距离超过原始距离的70%,审核通过率为***% ==

==申请后最大或最小配送距离超过原始距离的80%,审核通过率为***% ==

==申请后最大或最小配送距离超过原始距离的90%,审核通过率为***% ==

4、统计各商户的配送范围面积(请参考申请后配送面积),在以下4个区间内的商户数及占比(百分比数值保留小数点后2位):010,000,000(平方米),10,000,00020,000,000(平方米),20,000,000~30,000,000(平方米),30,000,000(平方米)以上。请在程序中以打印语句输出结果,并打印输出结果复制并粘贴至对应报告中。(复制内容需包含打印语句输出结果的上下各 5 行运行日志)。

示例格式:

==配送面积0~1000,0,000(平方米),商家数为****,占比***% ==

==配送面积10,000,000~20,000,000(平方米),商家数为****,占比***% ==

==配送面积20,000,000~30,000,000(平方米),商家数为****,占比***% ==

==配送面积30,000,000(平方米)以上,商家数为****,占比***% ==

模块D、数据可视化(20分)

MySQL数据库中的相关数据集包含了城市、地点、商家id、网格id、餐品种类、标品属性等多项基础信息字段。请使用Flask框架,结合Echarts完成下列任务。

数据库账号: takeout 密码:takeout

自行创建代码工程路径为:C:\food_dilivery

每个可视化图中需要添加图片作为背景水印。

任务一:双柱状图呈现审核结果比例

任务背景:

外卖的配送范围一般由外卖平台的业务人员为商家设定,商家也可以根据实际情况向平台申请修改配送范围。通常配送范围并不是毫无棱角的圆形,因为这种划分并没有因地制宜,是不合理的。最大配送距离指的是配送范围中距离商家最远的直线距离,最小配送距离则是配送范围中距离商家最近的直线距离。在申请配送范围修改时,审核员将考虑实际道路限制、综合运力成本、顾客等待时长等因素,对配送范围变更的申请进行考量,最终做出通过/拒绝/驳回的结果判定。请根据相关数据集,按任务指定要求,输出范围审核相关分析图例。

任务描述:

请根据数据库相关表格数据,统计审核通过与拒绝的范围申请记录数量,并以双柱图表达。

具体任务要求:

1、根据相关表格中“id,Request_id,Walle_id,Retailer_id,retailer_name,retailer_address,etailer_location,City_id,City_name,Grid_id,Carrier_id,Team_id,Applicant_id,Applicant_name,first_auditor_role,first_auditor_candidate_ids,first_auditor_id,first_auditor_name,second_auditor_role,second_auditor_candidate_ids,second_auditor_id,second_auditor_name,status,max_distance_before_edit,min_distance_before_edit,max_distance_after_edit,min_distance_after_edit,area_before_edit,area_after_edit,created_at,updated_at,申请时间,创建时间”等字段,汇总各二级审核人审批的申请数量,并统计其中通过与拒绝的条数。在PyCharm控制台打印输出审核记录数最多的10位审核人id,审批总数,以及其中通过与拒绝的条数,按审批总数降序排列。

示例格式:

1.二级审核人id:**, 审批数量:条,其中通过条,拒绝条=

2.二级审核人id:**, 审批数量:条,其中通过条,拒绝条=

……

2、使用Flask框架,结合Echarts,完成双柱状图输出。要求柱图标题为“审核通过与拒绝对比”,横坐标为审核人id,纵坐标为审核记录数。画出审核数量最多的10位二级审核人记录审批情况,通过记录数以蓝色柱形表示,右侧以红色柱形表示拒绝和驳回记录数,以审批总数降序排列。将可视化结果截图并保存(截图需包含浏览器地址栏)。

任务二:饼图呈现营业区间商家数量

任务背景:

营业时长指商户开市接单到闭市停业的时长,适当地增加营业时长有利于提升店铺的曝光量,同时能够在一定程度上获得平台排名加权。营业时间长的店铺在特定时间段(大部分商家关店休息后)面对的竞争压力将减小,但增加营业时间将增加商家运营店铺的人工成本,同时也需要考虑不同时间段内运力不同的情况,例如有些区域在晚上12点以后无法配送。请根据相关数据集,按任务指定要求,输出营业时间相关分析图例。

任务描述:

请根据相关表格数据,统计平台各商家的营业时间占比,并饼图呈现。

具体任务要求:

1、根据相关表格,参考“餐厅id,餐厅名称,所属城市,营业时长,餐厅状态,是否托管,总单量,总单量增长率,有效订单量,有效订单增长率,订单配送成功率,超时订单率,无效订单率,平均预计送达时长,平均实际配送时长,当前配送面积,面积变更值,网格id,网格名称,战营 ”等字段,统计4小时以内、46小时、6-8小时、812小时、12小时以上,5个区间段内平台各商家的营业时间占比(区间取值为前闭后开区间)。请在PyCharm控制台以区间商家数量降序打印输出城市名称,商家数量。

示例格式:

区间“4小时以内”,商家***个=

区间“4~6小时”,商家***个=

……

2、使用Flask框架,结合Echarts,完成饼图输出。标题为“各营业区间商家数量对比”,顺时针显示次序与打印语句数据一致。将可视化结果截图并保存(截图需包含浏览器地址栏)。

任务三:柱状图呈现超时订单率

任务背景:

网格化营销是近年来新兴的一种营销管理模式,已被广泛地运用于市场精准营销。在市场营销中,采取地图营销、网格管理、精准策略等,可将客户的心理需求与其日常生活紧密地联系起来,巧妙运用网格化管理和营销地图,以此来实现客户的营销精准度与价值提升,提高单一客户贡献值和营销效率。其核心旨在帮助企业快速响应市场需求,为用户提供更加便捷的、专业化服务,并使企业的资源分配以客户为中心,以市场变化为导向,固本强基、开 拓市场、提升效益,有助于平台有效地制定绩效战略。请根据相关数据集,按任务指定要求,输出分析图例。

任务描述:

请根据相关表格数据,参考字段同可视化2、(题号数字),统计平均超时订单率前10名的网格,并柱图呈现。

具体任务要求:

1、根据相关表格,参考“餐厅id,餐厅名称,所属城市,营业时长,餐厅状态,是否托管,总单量,总单量增长率,有效订单量,有效订单增长率,订单配送成功率,超时订单率,无效订单率,平均预计送达时长,平均实际配送时长,当前配送面积,面积变更值,网格id,网格名称,战营 ”等字段,统计平均超时订单率前10名的网格名称及平均超时订单率,并在PyCharm控制台以平均超时订单率降序打印输出。

示例格式:

1.网格名称:*,平均超时订单率%=

2.网格名称:*,平均超时订单率%=

……

2、使用Flask框架,结合Echarts,完成柱状图输出。标题为“超时订单率排名”,柱状图次序与打印语句数据一致。将可视化结果截图并保存(截图需包含浏览器地址栏)。

任务四:组图(多条形图)呈现各城市外卖行业现状

任务背景:

近年来,我国外卖行业发展迅速,互联网餐饮外卖市场规模逐渐扩大,外卖平台已覆盖全国所有省份。全年外卖交易超7274亿元,截至3月,我国网上外卖及手机网上外卖用户渗透率已达44%。底,全国外卖总体订单量已超过171.2亿单。为了解外卖行业在各城市发展情况,请根据相关数据集,按任务指定要求,输出分析图例。

任务描述:

请根据相关表格数据,统计各城市外卖行业发展情况,并组图呈现。

具体任务要求:

1、根据相关表格,参考“餐厅id,餐厅名称,所属城市,营业时长,餐厅状态,是否托管,总单量,总单量增长率,有效订单量,有效订单增长率,订单配送成功率,超时订单率,无效订单率,平均预计送达时长,平均实际配送时长,当前配送面积,面积变更值,网格id,网格名称,战营 ”等字段,统计各城市商家总数前10名的城市名称、商家数量、以及该城市商家平均营业时长,并在PyCharm控制台以商家数量降序打印输出。

示例格式:

1.城市:***,商家数量:***个,平均营业时长平***分钟=

2.城市:***,商家数量:***个,平均营业时长平***分钟=

……

2、使用Flask框架,结合Echarts,完成组图输出。组图左侧:纵坐标为城市名称,横坐标为商家数量的条形图,标题为“各城市商家数量Top10”;组图右侧:商家数量前10名的各城市商家平均营业时间。图形展示顺序与1)(任务数字编号)打印语句一致,将可视化结果截图并保存(截图需包含浏览器地址栏)。

任务五:组图(柱状图、玫瑰图)呈现投诉情况

任务背景:

投诉是顾客对平台管理和服务不满的表达方式,也是企业有价值的信息来源,它为企业探索更多可能。分析顾客投诉的种种因素,把顾客的不满转化满意,锁定他们对平台和产品的忠诚,已成为企业营销实践的重要内容之一。商户业务包是指该商户在经营定位时所确定的主要消费群体。不同城市消费群占比不同,大致可以分为大客户,白领,小客户,高校, 家庭,其它六个商业业务包。请根据相关数据集,按任务指定要求,统计并输出城市商户业务包与投诉相关的分析图例。

任务描述:

请根据相关数据库表格,统计不同城市的商业业务包组成,并以双饼图表达。

程序输出及可视化输出时请使用商户业务包中文释义,中文释义对应关系如表1所示。

字母缩写 中文释义

GKA 大客户

BL 白领

SIG 小客户

GX 高效

FML 家庭

OTH 其他

表1 商户业务包中文释义

具体任务要求:

1、根据相关数据库表格,参考“餐厅id,retailer_id,餐厅名称,城市,商户业务包,配送范围,客单价,推单数,接单数,有效完成单数,投诉率,异常率,欺诈单数,拒单数,商户取消数,客户取消数,系统取消数,配送取消异常数,整体时长,接单时长,到店时长,取餐时长,送达时长,商户投诉数,用户投诉数,差评数,好评数,评价数,最远订单距离,该订单整体时效,该订单接单时效,该订单到店时效,该订单取餐时效,该订单送达时效,该订单评价”等字段,统计北京地区各商户业务包的商家数量,同时,按业务包统计客户投诉数,并在PyCharm控制台打印输出,以商家数量降序排列。

示例格式:

北京:1.商户业务包:***, 商家数量:***家,投诉***条记录=

北京:2.商户业务包:***, 商家数量:***家,投诉***条记录=

……

2、使用Flask框架,结合Echarts,完成组图输出。组图左侧:横坐标为商户业务包名称,纵坐标为该业务包所包含的商家数量,标题为“北京地区各商户业务部商家数量”的柱形图;组图右侧:各商户业务包投诉占比的玫瑰图,图形各部分显示次序与打印语句数据一致,将可视化结果截图并保存(截图需包含浏览器地址栏)。

任务六:柱状堆叠图呈现业务包评价组成

任务背景:

在外卖平台中,用户的评论具有双向影响。不仅可以促进商家根据消费者评价调整自己的经营策略,也能够影响其他用户的下单率。相关数据显示,浏览评价的用户比只浏览门店商品的用户下单转化率平均高出25%。因此,商家的店铺评论对提高下单率是十分重要的。请根据相关数据集,按任务指定要求,统计并输出评价相关的分析图例。

任务描述:

请根据相关表格数据,统计各商户业务包评价情况,并柱状堆叠图呈现。

具体任务要求:

1、根据相关表格,参考“餐厅id,retailer_id,餐厅名称,城市,商户业务包,配送范围,客单价,推单数,接单数,有效完成单数,投诉率,异常率,欺诈单数,拒单数,商户取消数,客户取消数,系统取消数,配送取消异常数,整体时长,接单时长,到店时长,取餐时长,送达时长,商户投诉数,用户投诉数,差评数,好评数,评价数,最远订单距离,该订单整体时效,该订单接单时效,该订单到店时效,该订单取餐时效,该订单送达时效,该订单评价”等字段,统计各商户业务包非好评数、好评数,并在PyCharm控制台以评价总数降序打印输出。

示例格式:

1商户业务包:***,非好评数:***条,好评数:***条=

1商户业务包:***,非好评数:***条,好评数:***条=

……

2、使用Flask框架,结合Echarts,完成柱状堆叠图输出。横坐标为商户业务包名称(中文释义),纵坐标为评论数量,标题为“各业务包评价组成”,柱图下方为好评数(红色),上方堆叠非好评数(黑色),展示顺序与1)(任务数字编号)打印语句一致,将可视化结果截图并保存(截图需包含浏览器地址栏)。

模块E:综合分析(20分)

通过模块B的网站分析及数据爬取、模块C的数据清洗与分析及模块D的可视化呈现,我们已经清晰的了解了餐饮外卖平台业务背景及相关数据,在综合理解外卖业务数据的基础上,根据任务要求进行分析,并编写分析报告。

请根据任务要求,分析以下内容,并编写分析报告。分别从商家营业时间、销售单量、范围变更等角度对外卖平台推广情况与销售表现进行分析,并对平台经营提出几点建议。

分析报告要求:

任务一:商家营业时长分析

结合平台相关数据文件,探索不同营业时长(区间划分请使用:4小时以内、46小时、68小时、8~12小时、12小时以上)对商家平均总单量的影响,并结合模块D相关可视化结果,说明影响总单量的因素有哪些?阐述你的结论并说明原因。分别以文字描述和图例进行说明。

任务二:商户业务包分析

结合模块C 数据挖掘分析中3、(任务编号)的结论,请绘制折线图(横坐标为最大/最小配送距离变更范围,刻度数值请参考数据挖掘分析中3、(任务编号)中幅度,纵坐标为审核记录通过率)对不同地区商户业务包的统计结果,说明图表有哪些差异?说明了什么问题?分别以文字描述和图例进行说明。

任务三:平台规划建议

请结合平台业务背景及相关分析结论,对平台未来规划提出建议(不少于3条建议);

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。