0%

Github上总是会有一些新奇的东西出现,这不无意间又发现了个有趣的玩法,可以用它来作为你的个人开发者名信片展现。具体展现效果如下:

01-24-elkan1788-profile-02.png

操作起来也不繁琐,类似以前的pages服务那样,只准备个特定的仓库就可以,具体操作如下:

背景

经过一番考虑还是把个人博客从Hexo引擎迁移到Hugo引擎,博客主题依旧还是沿用NexT。其实本来还担心又要折腾弄个全新的博客主题,后来Github上看到兰陵子分享的 NexT 主题,就直接拿过来引用。但在部署后发现还是有些地方需要改善,在此记录下改造优化的过程。如果正好你也喜欢这个主题,那么欢迎拿去使用,也欢迎交流反馈。

其实CDH环境部署安装并非是什么难事,正所谓是熟能生巧嘛。但正好不巧的就是太久没有操作过,便是会遇到一些“奇奇怪怪”的问题,而后花费些功夫才能解决好,事后也就顺道把它们记录下来,避免以后再犯。

从今天起正式启用lisenhui.cn作为本博客空间唯一域名。

早上的时候收到了域名服务商的通知短信,提示域名需要续费。才发现不知不觉中,原来工作后注册的第一个域名,已经陪伴自己走过了7个年头啦。当时也就是觉得中文域名比较特别,然后就自己的名字注册了李森辉.cn的域名。

近期发现自己的个人博客空间突然之间不能访问,一番查证后发现原来是之前使用的page服务商已经停止提供服务。无奈只好重新迁移回到Github Pages。但这就是又得到重新准备Hexo的相关开发环境,还得辛苦的调试才能成功。而恰好这时在网上有看到过Hugo静态站点引擎的文章,一款基于Go语言开发的极速框架,开发环境部署也简便快速。另外近期原有的域名也快到期了,正好就一起把博客空间整理整理吧。

背景

平时一般都很少在Linux服务机器上使用UI桌面,但也还是有机会遇到,这不今天便遇到Linux版本的火狐浏览器显示中文乱码。无论怎么调试浏览器的相关设置,都没有办法凑效,甚是有点郁闷。

firefox-browser-err01.png firefox-browser-err02.png

通过Kylin自带的简单图表展示来进行数据分析的你是否觉得还不够过瘾?想在酷炫的仪表盘上进行数据分析?今天就给大家带来一款上手较快,简单易用的数据驱动式Notebook工具——Apache Zeppelin。将Zeppelin与Kylin 集成后,你就可以通过它来定制你的数据可视化报告,更直观地体验Kylin的分析“神”速啦~

Kylin一样, ApacheZeppelin也是 Apache 软件基金会的顶级项目,是一款基于Web的Notebook(类似于IPython的Notebook),支持友好交互式的数据分析体验,原生就支持Spark、Scala、SQL、Shell、Markdown等编程或脚本语言,可以访问其官方网站 Apache Zeppelin 了解更多的信息。

Apache Kylin是运行在Hadoop集群之上的OLAP数据分析应用服务,在Hadoop生态中,大家对它的认可度和赞誉都很高,全球有超过1000+企业都在使用“麒麟”(Apache Kylin)这只神兽。而Hadoop集群的部署又并非易事,那这是否就阻碍了我们探究Apache Kylin的步伐呢?答案是否定的,通过借助强大的虚拟技术,在自己本地就能体验到“麒麟”的魅力,那么接下来就让我们一起进入“麒麟”的数据世界。

在新创建的Hadoop边缘节点上,尝试通过Hive CLI模式进行数据插入操作,结果没有出现意想中的成功信息,反倒是捕获到如下的异常:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
FAILED: SemanticException [Error 10293]: Unable to create temp file for insert values File /tmp/hive/kylin/9c84de0a-fca2-4d3c-8f72-47436a4adb83/_tmp_space.db/Values__Tmp__Table__1/data_file could only be replicated to 0 nodes instead of minReplication (=1).  There are 1 datanode(s) running and 1 node(s) are excluded in this operation.
	at org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget4NewBlock(BlockManager.java:1720)
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:3440)
	at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.addBlock(NameNodeRpcServer.java:686)
	at org.apache.hadoop.hdfs.server.namenode.AuthorizationProviderProxyClientProtocol.addBlock(AuthorizationProviderProxyClientProtocol.java:217)
	at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.addBlock(ClientNamenodeProtocolServerSideTranslatorPB.java:506)
	at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
	at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:617)
	at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1073)
	at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2226)
	at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2222)
	at java.security.AccessController.doPrivileged(Native Method)
	at javax.security.auth.Subject.doAs(Subject.java:415)
	at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)
	at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2220)

ERROR: Current user has no permission to create Hive table in working directory: /user/kylin

常言道“工欲善其事,必先利其器。”

不过从Mac再过渡回来到Windows确实是有诸多的不习惯,但仍是要学会克服,无它,工作是生存的根本技能。于是从网络上扒了下关于Win10快捷键的分布,还是挺有趣的。记录也下部分常用快捷键,如下: