1. 姓 名:
    电 话:
       快 速
       留 言:
    验证码:
北大青鸟上海 >> 新闻动态 >> 招生问答  >> 正文

上海大数据培训需要学习哪些知识?

信息来源:http://www.itbenet.com/ 发布人:北大青鸟 发布时间:2018-5-16 17:17:17

大数据是IT领域热度最高的技术之一,其主体内容为统计学、运筹学、机器学习、沟通能力、编程、可视化、商业直觉、数据处理和行业知识等。对于想学习大数据的人来说,比较关心大数据培训需要学习哪些知识?在不同的培训机构中,大数据的课程设计也有所差异,拿上海北大青鸟人民广场校区来说,大数据学习分为9个阶段。

 

一、Java基础。培养学员熟练使用MyElipse开发Java程序,会使用Java编写常用的流程控制语句,理解并掌握面向对象思想及其三大特性,能够灵活运用Java常用类解决实际问题,会使用集合框架存储数据、I/O技术操作文件,能够实现多线程及网络编程。

 

 

 

二、JavaWeb网站开发。了解B/S架构运行原理,掌握网页的开发和设计技能,掌握JavaWeb核心开发技能,掌握Linux应用部署和监控技能,掌握基本的JavaEE应用设计和开发技能,在这一阶段还会锻炼学员团队协作能力。

 

三、SSM/SSH框架。掌握SSM/SSH框架核心技能及应用开发技能,掌握Oracle数据库设计和应用技能,学会使用Git进行项目代码版本管理,学会使用Maven进行项目构建管理。

 

四、基于分布式微服的互联网架构。培养学员基于分布式项目的业务架构、应用架构、技术架构、安全架构、网络拓扑架构等的设计和代码开发能力,以及在部署策略等方面的综合能力,培养学员分布式项目下核心业务处理能力,培养学员在分布式项目下对于高并发、数据最终一致性、性能优化等问题的解决处理能力。

 

五、Python爬虫+ELK+分析。掌握Python编程,具备Python的爬虫开发、数据获取和整理等能力,能够使用ELK进行数据导入、查询和集成。

 

六、Hadoop生态圈。掌握Hadoop集群配置与管理,掌握HDFS文件操作,掌握分布式计算原理,掌握基于Hive的数据ETL和数据查询,掌握HBase数据存储,掌握数据导入导出。

 

七、Spark技术栈。掌握Spark集群配置与管理,以及Spark离线计算,具备Scala和Python编写Spark应用的能力,具备在企业数据湖中建立数据流程/通道、实施数据监管、规范数据管理和确保数据安全,具备数据采集、数据变换、数据建模、任务调度以及与企业应用的数据集成具备多种NoSQL数据存储的能力。掌握Hive/Spark实施数据变换、BI工具与Hive、NoSQL的集成,掌握用户兴趣取向分析/航班飞行网图分析/电子商务消费行为分析/用户交易欺诈分析案例的具体实现。

 

 

八、实时流处理平台。掌握ApacheNiFi/Kafka/Flume/Spark Streaming的集成使用具备实时流数据存储、计算、查询的能力,具备多种流处理框架的运用能力,掌握多种常见可视化工具的使用,掌握股票流数据实时分析/舆情分析案例。

 

九、机器学习。掌握Spark机器学习数据结构及流程,掌握分类,聚类和推荐模型,掌握垃圾邮件分类。

 

每学完一个阶段,学员在就业时的竞争力就上了一个高度,薪资也高了一个等级。大数据学习,除了课程的科学设计和老师的辛苦教学,也离不开个人的努力,希望所有学习大数据的有志青年,都坚持走到最后,成为时代需要的大数据工程师。