推特最新下载,英国人最爱用的社交app有哪些?
虽然疫情还在继续,但是还是有很多学生会来到英国进行学习,并且在异国他乡开始一段时间的生活。准备来英国的小伙伴们,手机里还能没有几个方便英国生活的app吗?今天我们就来介绍几个英国必备APP,保证小伙伴们用了表示真香。

01 出行类
Google Maps自从用了Google map,妈妈再也不用担心我迷路了。尤其在英国,道路名称不熟悉,直接输入邮政编码,Google一下直达目的地。Trainline英国的公共交通很发达,尤其是火车系统,基本上出行必备十分完善便捷。查询车次,站台,经停地点,购买车票,trainline在手,一套全有。
National RailNational Rail也是搭乘火车出行的不二神器,查询班次和价格十分方便。Uber出门打车用Uber,方便又快捷。02 饮食类
Deliveroo专业外卖平台,Deliveroo外卖送餐员标志性的绿色头盔和送餐盒,大街上随处可见,不妨下载之后看看你家附近有哪些美食外送呢?Hungry Panda一听到这个名字就知道和中国美食有关了,专业的中餐外卖平台,想吃中餐又懒得做,点开Hungry Panda,各种中餐任你挑选,前提是你所在的地方要有很多中餐馆哈哈。Domino’s Pizza喜欢吃Pizza的小伙伴们不要错过了,直接APP上选择你喜欢吃的口味,添加你喜欢的配料,下单完成好吃的Pizza送到家,简直懒人必备。Just Eat专注于专门做外卖的美食小店,外卖种类很多,不管是中餐、泰餐、炸鸡等等都可以送餐上门。Uber Eats当你听到Uber脑海中还停留在打车软件你就out 啦。虽然是打车鼻祖,但是现在已经推出了送餐的UberEats,用户可以通过智能手机追踪其所订食品的送递进度。驾驶员也可以选择是否担任UberEats送餐员,是不是很有趣呢?03 租房类
SpareRoom英国最大的找室友平台,不管你是想要出租房屋,还是打算找到满意的房子,又或者是想要找到一起合租的室友,SpareRoom都可以帮你解决,可以直接与对方沟通,十分方便。Rightmove英国最知名的中介房屋租赁买卖平台。不论是APP还是网站都很专业。大量房源等你挑选,通过中介交易,品质有保证。ZooplaRightmove的老对手了,提供信息全面,不仅有房屋租赁买卖的服务,还为用户提供对英国房屋价值估算等信息。04 社交类
Instagram喜欢拍照,喜欢po照片,喜欢看有趣的照片,喜欢记录分享生活,那一定要下载一个Instagram。纯粹的图片分享APP,不仅可以分享自己的照片和生活,更可以关注感兴趣的人和事。FacebookFacebook的大名远扬,本质是维持朋友家人之间的关系的社交网络,关注好友,发布动态,保持联系,不管是朋友还是明星,看看你关注的人最近有什么消息呢?MessengerMessenger是Facebook旗下的聊天软件,想要和Facebook上的好友们聊天,那当然要下载一个啦。Twitter外国的微博,使用Twitter,更便利的开眼看世界。WhatsApp英国小伙伴们没有微信怎么办,那就下载一个WhatsApp和他们联系吧。歪果仁爱用的聊天软件。SkypeSkype是免费的在线通话视频软件,可以使用Skype拨打全球的座机手机电话。希望疫情早日结束,我们能在新学期笑容满面的在英国迎接大家!也希望这些APP能够让在英国的小伙伴生活的更便利。
近日Twitter爆出的浏览器缓存数据泄露问题?
作为一款主打安全隐私的开源浏览器,Mozilla Firefox 拥有一票相当忠实的多平台用户。
然而近日爆出的一个 Twitter 漏洞,却给使用该浏览器访问社交网站的用户蒙上了一层阴影。
外媒指出,如果你一直通过 Firefox 来访问 Twitter,便很可能已经将非公开信息数据保存在本地缓存中。
庆幸的是,Twitter 方面表示其已经在服务器端修复了这个问题,且谷歌 Chrome 和苹果 Safari 均未受到影响。
社交巨头在接受 BetaNews 采访时称,问题与 Mozilla 如何处理 HTTP 报头数据的浏览器默认设置有关。
为避免这一问题,Twitter 方面已经实施了一项更改,以使 Mozilla Firefox 不再于缓存中存储 Twitter 数据。
不过 Twitter 并未将之归咎于 Mozilla 犯错或泄露,因此大家不必着急去批评 Firefox 。
如果你通过 Firefox 从共享或公共计算机访问 Twitter,并采取过下载数据存档、或通过 Direct Message 收发媒体文件等操作。
那么即使注销登录,这些信息仍可能被存储在浏览器的缓存中。Firefox 默认的有效期为 7 天,超时后将被自动清理。
最后,Twitter 表示已经彻底实施了一项变更,因此今后不会再在 Firefox 浏览器缓存中存储用户的个人信息。不放心的用户,建议在使用公共电脑后及时登出并清理缓存。
tweet安卓版怎么下载?
步骤/方式1
打开浏览器点击搜索栏
步骤/方式2
输出tweet安卓版搜索
步骤/方式3
点击第2个连接
步骤/方式4
点击√号
步骤/方式5
点击立刻下载
步骤/方式6
点击下载就可以下载twee了
大数据主要学习哪些内容?
前言要从事计算机行业的工作,不管是什么工作,开发、测试、还是算法等,都是要有一门自己比较熟练的编程语言,编程语言可以是C语言、Java、C++等,只要是和你后续工作所相关的就可以(后续用到其他语言的话,你有一门语言基础了,学起来就快了)。一般初学者入门语言大多都会选择Java、C语言、C++或者Python,而且现在网上有很多好的视频,可以供初学者学习使用。关于学习视频或者资料的选择,知乎或者百度等都有很多讲解了,也可以跟师兄师姐咨询,这样可以少走很多弯路,当然,有人说,走一些弯路总是有好处的,但是我这里说的弯路不是说不犯错误,不调bug,而是指学习资料以及一些知识点的偏重点,这样可以尽量节约一部分时间,刚开始时,总会有点迷,而且当你真正投入进去学习时,会发现时间总是不够用。
我前面是做的Java后端,后续才转的大数据,所以一些Java开发所需要的东西自己也有学习过,也都是按照正常的路线走的,JavaSE阶段,然后数据库,SSM框架,接着做了一些网上找的项目,之后发现对大数据比较感兴趣,就开始找大数据相关的资料学习,看视频,看博客,敲代码,前期大概花了3-4个月吧(公众号的这些资料就是我当时看过的),也是一步步艰难走过来的,刚刚开始接触大数据相关的东西时,一度怀疑这么多东西自己能否学得完,是不是能用得到,学完又忘了,忘了又回头看,不过还好,坚持过来了,还好没有放弃,工作也还ok,找的大数据开发岗,待遇也还不错吧。
下面就说一下我自己从Java开发到大数据开发的曲折学习之路(狗头保命.jpg)。因为我现在是做大数据相关的工作了,所以Java后端涉及到的一些SSM框架等知识点我就不介绍了,毕竟后续一段时间也没有做了。自己看过的大数据学习相关的视频+资料大概是200G-300G吧,从Linux->Hadoop->。。。->Spark->项目,还有就是一些面试文档,面经等。一些视频看了两遍或者更多,跟着学,跟着敲代码,做项目,准备面试。涉及到需要学习的东西包括:JavaSE,数据结构与算法(计算机行业必备),MySQL,Redis,ES(数据库这些可以看项目,也可以自己熟练一两个),Linux,Shell(这个可以后期补),Hadoop,Zookeeper,Hive,Flume,Kafka,HBase,Scala(Spark是Scala写的,会Scala做相关的项目会更容易入手),Spark,Flink(这个是找工作时有面试官问过几次liao不liao解,所以找完工作才开始接触学习),相关项目。
编程语言阶段学习如果是零基础的话,建议还是从视频开始入门比较好,毕竟一上来就看教材,这样有些代码的来龙去脉可能不是很了解。如果是有一些编程语言基础的话,从视频开始也会更简单,一些for、while循环你都知道了,学起来也会快很多。 JavaSE我是选择的某马刘意的为主,因为刚刚开始学Java看过一本从《Java从入门到精通》,没什么感觉,后续又在看了某课网的Java初级视频,还是没感觉出来啥(当时就有点怀疑自己了。。。),可能有点没进入状态。 还好后续找了某马刘意老师的JavaSE视频(我是看的2015年版本,那时候19版还没出),觉得他讲的真的是很好很详细,每个知识点都会有例子,也都会带你敲代码,做测试,可能前面有C语言基础,然后也看过Java的一些语法,所以学起来还是比较顺利,后面的IO流、多线程等知识点时,也有看书看博客,或者看看其他老师的课程,讲解的可能自己比较容易接受就可以,反正都是多尝试(下面会给出视频链接),尽量懂一些,后续可以回头来复习。JavaSE相关的视频,先看一遍,后续有时间建议再看一遍,而且这些经典的视频,看两遍真的是享受。 如果有一定基础了的,JavaSE前面七八天的视频可以加速看,但是不懂的一定要停下开仔细想想,零基础的还是尽量不要加速吧,慢慢来稳些。后面的视频建议还是跟着视频来,尽量不要加速,代码尽量都敲一敲,第一遍基本上一个月到一个半月可以结束。 JavaSE可以说是很基础也很重要的东西,主要重点包括面向对象、集合(List、Map等),IO流,String/StringBuilder/StringBuffer、反射、多线程,这些最好是都要熟悉一些,面试也是重点。 JavaSE之后,如果你是要走前端或后端开发路线的话,可以跟着一些网上的视频继续学习,这里我就不多做介绍了。
===========分割线,Scala可以后续Spark阶段再接触学习=============
Scala的学习,Scala是一门多范式 (multi-paradigm) 的编程语言,Scala支持面向对象和函数式编程,最主要的是后续Spark的内容需要用到Scala,所以前面学习了JavaSE,到Spark学习之前,再把Scala学习一波,美滋滋,而且Scala可以和Java进行无缝对接,混合使用,更是爽歪歪。后续Spark学习时基本都是用的Scala,也可能是和Java结合使用,所以Spark之前建议还是先学一波Scala,而且Scala用起来真是很舒服(wordcount一行代码搞定),适合迭代式计算,对数据处理有很大帮助,不过Scala看代码很容易看懂,但是学起来还是挺难的,比如样例类(case class)用起来真是nice,但是隐式转换学起来就相对比较难。学习Scala的建议:1. 学习scala 特有的语法,2. 搞清楚scala和java区别,3. 了解如何规范的使用scala。Scala对学习Spark是很重要的(后面Flink也是要用),虽然现在很多公司还是用Java开发比较多,而且Spark是Scala写的,如果要读源码,会Scala还是很重要的(至少要看得懂代码)。 Scala主要重点包括:隐式转换和隐式参数、模式匹配、函数式编程。这里我看的是某硅谷韩老师的Scala视频,韩老师讲的真的很不错,五星推荐,哈哈。 也许有人会觉得Python也是需要的,但是学习阶段,可能用Java还是比较多,面试也基本都是问Java相关的内容,所以Python后续工作会用到的话,再看看Python的内容吧。
大数据框架阶段学习大数据这方面的知识点自己可以说真的是从零开始的,刚刚开始学那会Linux基本都没用过,心里那个虚啊,而且时间也紧迫,想起来都是一把辛酸泪。 刚刚开始学的时候,看了厦门大学林子雨的《 大数据技术原理与应用》课程,可能这个课程是面对上课的,所以看了一些,感觉对自己帮助不是很大(并不是说课程不好,可能不太适合自己,如果是要了解理论知识,很透彻,但是俺时间紧迫啊),所以就继续在网上找视频,然后发现某硅谷的培训视频很多人去参加,而且知识点也很齐全,大数据相关组件都有讲课,还有一些项目比较好,所以就找了它相关的视频,当时看的是2018年的,所以视频不算旧。 来一张推荐系统架构的图,先看看
一般来说,Flume+Kafka对数据进行采集聚合传输,一方面Spark对实时数据进行处理,传输给相应的数据处理模块(比如实时数据处理的算法模块,Spark也有提供常见的机器学习算法的程序库),另一方面采集的数据也可以放入数据库(HBase、MongoDB等)中,后续MapReduce对离线数据进行离线处理,数据处理完毕用于后续的使用,数据采集处理的流程大概就是这样。如果是推荐系统,实时推荐会给用户产生实时的推荐结果,让用户进行查阅选择,比如你在界面浏览了或者看了新的物品,然后刷新下界面,可能给你展示的东西就有一些变成跟你刚刚浏览的相关了。离线推荐的话主要是对离线数据进行处理,为物品或种类做出相似的推荐,如果后续用户搜索相应的物品时,给用户展示相应的产品。
大数据学习路线:Linux -> Hadoop -> Zookeeper -> Hive -> Flume -> Kafka -> HBase -> Scala -> Spark -> 项目 - > Flink( 如果需要学习Storm,在Spark前面学习)
一、Linux(基本操作)一般我们使用的都是虚拟机来进行操作,所以要安装VM( Virtual Machine),我使用的是CentOS,所以VM和CentOS都要跟着安装好,跟着视频操作,一定要动手实践,将一些Linux基本命令熟练掌握,一些VIM编辑器的命令也要会用,做相应的一些配置,使用SecureCRT来做远程登录操作(也可以使用其他的,自己顺手就行)。再强调一遍,基本操作命令尽量熟练一点,如果一下记不住,打印一些常用的,自己看看,多用多实践,慢慢就会用了。还有一些软件包的下载安装卸载等,跟着操作一遍,熟悉下,后续都会使用,Shell编程可以后续补。
二、Hadoop(重点中的重点)Hadoop是一个分布式系统基础框架,用于主要解决海量数据的存储和海量数据的分析计算问题,也可以说Hadoop是后续整个集群环境的基础,很多框架的使用都是会依赖于Hadoop。主要是由HDFS、MapReduce、YARN组成。这个部分安装Hadoop,Hadoop的三个主要组成部分是重点,对他们的概念要理解出来,知道他们是做什么的,搭建集群环境,伪分布式模式和完全分布式模式的搭建,重要的是完全分布式的搭建,这些部分一定要自己动手实践,自己搭建集群,仔细仔细再仔细,Hadoop的NameNode,DataNode,YARN的启动关闭命令一定要知道,以及他们的启动关闭顺序要记住,不要搞混。后续视频会有一些案例操作,跟着写代码,做测试,把基本环境都配置好,后续这个集群(完全分布式需要三台虚拟机)要一直使用。
三、ZookeeperZookeeper是一个开源的分布式的,为分布式应用提供协调服务的Apache项目。分布式安装ZK,对ZK有一定的了解就可以了,了解它的应用场景,以及内部原理,跟着做一些操作,基本上有一些了解即可。
四、Hive(重点)Hive是基于Hadoop的数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。Hive的安装,它的数据类型,以及它的数据定义、数据操作有较好的了解,怎么操作表(创建表、删除表,创建什么类型的表,他们有什么不同),怎么操作数据(加载数据,下载数据,对不同的表进行数据操作),对数据的查询一定要进行实践操作,以及对压缩方式和存储格式要有一些了解,用到时不懂也可以去查,最好是能理解清楚。这部分有什么面试可能会问,所以视频后续的面试讲解可以看看,理解清楚。
五、FlumeFlume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。对于Flume,对它的组成架构,以及对Flume Agent的内部原理要理解清楚,Source、Channel、Sink一定要知道它们的各种类型以及作用,有哪些拓扑结构是常见常用的,例如一对一,单Source、多Channel、多Sink等,它们有什么作用,要理解清楚。还有一个重点,就是对Flume的配置文件一定要了解清楚,不懂的可以上官网查看案例,对于不同的情况,它的配置文件要做相应的修改,才能对数据进行采集处理,视频中的实践案例一定要跟着做。
六、Kafka(重点)Kafka是一个分布式消息队列,用来缓存数据的。比如说实时计算中可以通过Flume+Kafka对数据进行采集处理之后,Spark Streaming再使用Kafka相应的Topic中的数据,用于后续的计算使用。对于Kafka,要理解Kafka的架构,什么是Kafka,为什么需要Kafka,应用场景。基本的命令行操作要掌握,比如怎么创建删除Topic,怎么通过生产者生成数据,消费者怎么消费数据等基本操作,官网也是有一些案例可以查阅的。
七、HBase(重点)HBase是一个分布式的、基于列存储的开源数据库。HBase适合存储PB级别的海量数据,也可以说HBase是很适合大数据的存储的,它是基于列式存储数据的,列族下面可以有非常多的列,列族在创建表的时候就必须指定。所以对HBase的数据结构要有一定的理解,特别是RowKey的设计部分(因为面试被问到过,咳咳,所以点一下),对于它的原理要了解,一些基本操作也要都会,比如创建表,对表的操作,基本的API使用等。
八、Spark(重点中的重点)Spark是快速、易用、通用的大数据分析引擎。一说到Spark,就有一种哪哪都是重点感觉,哈哈。 Spark的组成可以看下图
Spark是基于内存计算的,对于数据的处理速度要比MapReduce快很多很多,而且数据挖掘这些都是要对数据做迭代式计算,MapReduce对数据的处理方式也不适合,而Spark是可以进行迭代式计算,很适合数据挖掘等场景。Spark的Spark SQL能够对结构化数据进行处理,Spark SQL的DataFrame或DataSet可以作为分布式SQL查询引擎的作用,可以直接使用Hive上的表,对数据进行处理。Spark Streaming主要用于对应用场景中的实时流数据进行处理,支持多种数据源,DStream是Spark Streaming的基础抽象,由一系列RDD组成,每个RDD中存放着一定时间段的数据,再对数据进行处理,而且是基于内存计算,速度快,所以很适合实时数据的处理。Spark MLlib提供常见的机器学习(ML)功能的程序库。包括分类、回归、聚类、协同过滤等,还提供了模型评估、数据 导入等额外的支持功能。对Spark的核心组件、部署模式(主要是Standalone模式和YARN模式)、通讯架构、任务调度要有一定了解(面试问到了可以说一波),Spark Shuffle要好好理解,还有内存管理要知道,对Spark的内核原理一定要好好理解,不仅面试可能要用,以后工作也是有帮助的。
九、Flink(重点中的重点)Flink是一个框架和分布式处理引擎,用于对无界(有开始无结束)和有界(有开始有结束)数据流进行有状态计算。现在主要是阿里系公司使用的比较多,很多公司使用的还是Spark居多,而且Flink基本上都是和Spark很多功能大体上一样的,但是以后Flink和Spark孰强孰弱还有待时间的考验,不过Flink近几年越来越火了这是事实,所以如果有时间有精力的话,可以学一学Flink相关的内容也是很不错的。Spark和Flink主要都是在数据处理方面应用,在数据处理方面的话,离线数据处理:Flink暂时比不上Spark,Spark SQL优点在于可以和Hive进行无缝连接,Spark SQL可以直接使用Hive中的表;Flink暂时做不到这一步,因为官方不支持这一操作,Flink只能将数据读取成自己的表,不能直接使用Hive中的表。对于实时数据的处理:Flink和Spark可以说是平分秋色吧,而且Flink是以事件为驱动对数据进行处理,而Spark是以时间为驱动对数据进行处理,在一些应用场景中,也许Flink的效果比Spark的效果还要好些,因为Flink对数据更加的敏感。比如一秒钟如果触发了成千上万个事件,那么时间驱动型就很难对数据做细致的计算,而事件驱动型可以以事件为单位,一个个事件进行处理,相比而言延迟更低,处理效果更好。现在使用Flink的公司越来越多,有时间学习下,也算是有个准备。
项目阶段其实某硅谷的视频里面有很多大数据相关的项目,而且都是文档配代码的,B站上也有视频,学习期间可以跟着视频做两到三个项目,自己理清思路,把项目理解透彻,还是可以学到很多东西的。 根据自己情况,选择两到三个项目重点跟着做,理解透彻一点
大数据项目实战某硅谷的视频里面有很多大数据相关的项目,而且都是文档配代码的,学习期间可以跟着视频做两到三个项目,自己理清思路,把项目理解透彻,还是可以学到很多东西的。根据自己情况,选择两到三个项目重点跟着做,理解透彻一点。相关项目文档资料我已经放到网盘,GongZhongHao回复相应关键字获取领取方式。 相关项目、涉及技术框架及其B站链接(B站链接主要是为了有些小伙伴网盘速度限制,这样就下载文档资料即可)
书籍书籍部分直接云盘链接保存即可,这里我放两张Java开发和大数据开发我自己的书单(很多,路漫漫,吾将上下而求索~) Java后端书架:
大数据书架:
大概就这些,看完就需要很久了,大部分我也是需要的时候看相应的部分,所以有时间可以好好看下,不然就需要哪一部分看哪一部分,有助于学习即可。
最后大数据开发也是需要编程基础的,并不是学会使用这些框架怎么样就可以了,所以对于编程语言,数据结构与算法,计算机网络这些基础也是要的,这些基础知识也有助于自己以后的发展,如果是应届生校招的话,面试基本上都是JavaSE和数据结构与算法等的知识点,还有大数据组件相关的知识点,以及对项目的理解,这些都是要自己面试前准备好的,多看面经,多找面试题看,面几次,心里有谱了,后续面试就好了。 不管是从事什么样的计算机相关的岗位,编程都是很重要的,数据结构与算法特别重要,还有就是leetcode等编程网站刷题,提升自己的编程思维,后续笔试面试都要要的。 要将一行行代码看做一叠叠rmb,但是一行行代码能不能转换成一叠叠rmb,自己就一定要:坚持,多敲代码;多敲代码,坚持;坚持。
经常用的和很少用的是哪几个?
我的手机现在肯定有50个APP,我数了一下我手机里的APP里面一共有72个APP,这些APP大部分我日常都是应该用不到的,我看了自己的手机APP,我可以从以下几点来回答。
一、系统自带APP,不可删除的。我这里说的的手机自带APP是指的是我们手机上不可删除的那种类型APP,这部分APP应为是这个系统的重要构成部分,一但删除可能导致我们手机系统崩溃的,所以系统直接把这部分APP的删除权限给限制了,不管我们用不用的到都不可能删除的。当然获得ROOT权限也是可以删除的,但一般用户是不会这么折腾的,因为一不小心会把手机变成板砖。我手机上系统自带的APP有以下几类。
一是辅助工具类。我手机上的系统自带工具类APP有计算器、时钟(里面的闹钟功能我天天用)、屏幕录制、指南针、万能遥控器和备忘录(这个也常用)这些。
二是系统管理类。例如手机上的设置、文件管理、相册和主体壁纸、
三是系统自带的娱乐类。例如音乐、小米视频等。
二、日常使用APP我手机里面一开始买来手机得时候系统会自带一些第三得软件,这些第三方软件可能有的人买到手机就会把这些软件进行了删除,但是我当时可能太懒了想着反正现在手机得性能这么强多几个少几个也没关系,我就保留了。言归正传,现在说一下我的常用得APP。
现在我们每个人几乎都是机不离手,那么我们以前没有手机得时候可能还会去外面找别人聊聊天什么得,距离太远得可能我们就没有办法了。所以现在手机为我们解决了这个地域距离交流问题,那就是我们得社交APP ,我手机我常用得一是社交APP有QQ、微信和钉钉。其中QQ和微信作为私用聊天使用,钉钉作为上班开会交流使用;二是娱乐APP有腾讯视频、哔哩哔哩、网易云音乐和头条;三是日常支付APP我现在去线上购物、线下支付用的是微信支付和支付宝,同时我还用手机自带的NFC进行公交车和地铁的车费支付;四是学习APP我常用的是中国大学慕课、淘宝好学和哔哩哔哩(这个软件也是可以学习的);五是文档APP我常用的就是手机版的WPS软件;六是浏览器APP我常用的就是手机自带的浏览器。
这些APP都是我经常使用最多的,也是和我生活密不可分的。
三、很少使用APP上面大家也看到了我常用的手机软件其实就是以上的10 到20几个软件之间,那么我不常用的软件有哪些呢?这个其实我们手机对于我们日常使用的频率较低的都有记录,大家其实自己打开手机查看就可以了,当中我们可以把不常用的手机APP其实是可以卸载的,下面我就教大家怎么查看手机我们不常用的APP操作步骤。
第一步:打开手机找到手机关管家,如下图。
第二步:点击垃圾清理,如下图。
第三步:我们点击垃圾清理然后找到清理完成点击进去,如下图。
第四步: 我们就看到一个一个用卸载下面提示发现46个不常用应用,如下图。
第五步:点击应用卸载就可以看见自己手机不常用的软件,就可以针对专门的软件进行卸载,从图片看到我的不常用软件还是很多的这个图片只是一部分。
如果我们想看一下具体我们的应用多久没用应该如何查看呢?我们接着往下看。
第一步:还是找到手机里的手机关管家打开,如下图。
第二步:找到应用管理打开,点击应用卸载,如下图。
第三步:点击页面上的角落上的应用名称会看到一个选择菜单栏,点击使用频率,如下图。
第四步:如下图我手机上每个不常用的软件多久没有使用都能看得很清楚了。
综上所述,在这个手机性能过剩的时代,我们每个人的手机上的APP一定是大于50个的,但是我手机常用的APP就是比不常用的少,所以我们也要学会管理好手机里的APP,对于不常用的应用软件而且手机觉得性能不够用的情况下可以删除,这样也能一定程度上减少手机的空间占用,增加手机流畅度的。今天分享就到这里,谢谢~~


还没有评论,来说两句吧...