MBTI(迈尔斯布里格斯类型指标)
最近刷知乎,不时看到关于intp,intj人格的问题. 刚开始看到的时候感觉这和星座差不多,模棱两可,真正发现内心的自己确实有点难度。
我还是把这几种人格的表格列一下吧,权当故事看.(表格来源 百度百科)
今天又刷到一则学生跳楼的新闻,也许有时候把人分为不同的性格,以相应的方式分别对待会好点吧,人就是这么脆弱.
以前以为人可以掌控自己的性格,自己的情绪,现在也同样如此.但是真正到自己面临时,却又很难走出来.
最近刷知乎,不时看到关于intp,intj人格的问题. 刚开始看到的时候感觉这和星座差不多,模棱两可,真正发现内心的自己确实有点难度。
我还是把这几种人格的表格列一下吧,权当故事看.(表格来源 百度百科)
今天又刷到一则学生跳楼的新闻,也许有时候把人分为不同的性格,以相应的方式分别对待会好点吧,人就是这么脆弱.
以前以为人可以掌控自己的性格,自己的情绪,现在也同样如此.但是真正到自己面临时,却又很难走出来.
候选码: 该属性或者属性组可以唯一的标识一个元组,而其子集不能
主码: 若一个关系有多个候选码,则选定其中一个作为主码
全码: 若此关系中,候选码的组成为该关系元组的全集,则称其为全码
外键: 表的外键为另一个表的主键,外键可以重复 ||为空值
主码: 保证数据完整性
外键: 和其它表建立联系
索引: 提高查询排序速度
1 | 建立索引: CREATE [UNIQUE] [CLUSTER] INDEX<索引名> ON <表名> (<列名> [<次序>] [,<列名>[<次序>]]....) # UNIQUE 此索引的每一个索引值只对应唯一的数据记录 |
1 | GO是批处理的标志,是一条或多条SQL语句的集合,SQL Server将批处理语句编译成一个可执行单元,此单元称为执行计划。 |
1 | modify alter不同 |
1 | 关系模式: 对关系的描述. R(U,D,dom,F) |
更换电脑,重装hexo时,gitbash输出乱码.
系统字符集编码与Gitbash字符集编码不一致,解决方法打开win10语言设置,依次点击下图选项,更改为UTF-8编码,重启电脑即可解决.[吐了,其他软件又乱码了]
软件设计的六大原则SOLID:
常用的设计模式:
工厂模式:旨在将对象的创建过程从其使用过程中分离出来,以提高系统的灵活性和可维护性。在这种模式下,客户端代码不直接实例化具体产品类。相反,它通过使用一个共同的工厂接口,依赖于工厂类来创建具体产品的实例。这种方式允许客户端代码在不知道具体产品类细节的情况下工作,从而使系统更容易扩展和维护。举一个类比,这就像在餐厅点餐时,你不需要知道食物是如何准备的,你只需要从菜单中选择你想要的食物,并等待厨房准备好送到你的桌上。
1 | class Chart: |
策略模式:是一种行为模式,它主要关注对象的行为和算法的选择。这个模式允许开发者定义一系列的算法,把它们封装在独立的策略类中,并在运行时确定使用哪一个算法。这样,这种模式使得客户端可以在不同算法间切换,而无需关心算法的具体实现细节。客户端的选择通常基于运行时的条件或者需求变更,而策略模式使得这种选择变得灵活和可扩展。
1 | from abc import ABC, abstractmethod |
观察者模式:是一种行为模式,允许观察者对象监听某个被观察者对象的状态变化,当被观察者对象的状态发生变化时,它会自动通知所有注册的观察者,触发他们执行相应的更新操作。这种模式特别是用于创建松耦合的系统。我不清楚上述过程中观察者是如何注册的,并且被观察者如何通知的观察者?
1 | class Observer: |
单例模式是一种确保类在任何给定时间内只有一个实例的设计模式,并提供一个全局访问点来获取该实例。
1 | import threading |
要安装VMware,请首先在系统上下载二进制软件包。在VMware官方网站上找到最新的稳定版本。
1.打开一个Web浏览器,转到VMware的官方网站,然后按照以下路径导航到 Try VMware Workstation Pro page by following the path:
Products > Workstation Pro > Try VMware Workstation Pro
2.由于要在Ubuntu上进行安装,请找到适用于Linux的安装软件,然后单击DOWNLOAD NOW。
GNU Compiler Collection和Build Essential是安装VMware Workstation所需的软件先决条件。
如果您的系统上没有它,请执行以下步骤安装它们:
1.右键单击窗口,然后选择“在终端中打开”,从“下载”文件夹中打开终端。
2.在安装任何软件之前,请确保使用以下命令更新软件包存储库:
1 | sudo apt update |
3.然后,安装必备组件GNU Compiler Collection和Build Essential,这些必备组件将在安装过程中使用。运行命令:
1 | sudo apt install gcc build-essential |
按y确认安装,然后按Enter。
在继续进行正式安装过程之前,在终端提取下载的.bundle文件。
1.在终端中打开下载的bundle文件目录,并为其添加可执行权限:
1 | sudo chmod +x VMware-Player-16.1.1-17801498.x86_64.bundle |
复制完整的文件名,下一步将需要它。
2.接下来,通过键入命令sudo ./
+完整的文件名来提取文件。
命令输出将是:
3.提取完文件后,它将自动打开一个新窗口,即VMware Workstation Installer。
1.启动VMware Workstation Installer后,通过选择配置首选项并单击“下一步”来完成这些步骤。
2.完成安装后,它将显示“安装已成功”通知。
3.通过在Ubuntu Dash中键入名称搜索WMware。通过单击图标即可打开虚拟化软件。
4.在登陆VMware Workstation的 主窗口之前,它将要求您:
1 | Serial keys: |
5.输入上述密钥之一后,即可打开VMware 开始体验。
截至目前,VMware已经安装完成,Centos镜像的安装请查看下一节
安装
1 | cd /usr/app/ |
配置环境变量
1 | vi /etc/profile |
检测 scala 版本
1 | cd /usr/app |
检测 scala 的客户端
1 | scala |
安装
1 | cd /usr/app |
添加环境变量
1 | vi /etc/profile |
配置./conf/slaves
1 | /usr/app/spark-2.0.0-bin-hadoop2.7/conf/ |
配置./conf/spark-env.sh
1 | #将 spark-env.sh. template 拷贝一份 |
将 spark-2.0.0-bin-hadoop2.7 文件夹拷贝到另外两个结点
1 | scp -r /usr/app/spark-2.0.0-bin-hadoop2.7 root@hadoop12:/usr/app |
编辑其余两台的环境变量
1 | export Spark_HOME=/usr/app/spark-2.0.0-bin-hadoop2.7 |
启动
1 | /usr/app/spark-2.0.0-bin-hadoop2.7/sbin/start-all.sh #启动Spark集群 |
CentOS是基于Red Hat Enterprise Linux(RHEL)的开源Linux发行版。由于CentOS 7的稳定性和活跃的开发人员社区,它被视为Web托管的首选选项。
在本教程中,通过几个简单的步骤学习如何安装CentOS 7。
要下载官方和最新的CentOS 7 ISO文件,请浏览至阿里云镜像。
建议Minimal-2009.iso 即可
选择 Use ISO image ,然后找到下载好的镜像文件,Next.
Guest Operating System 选择Linux,Next.
选择虚拟机存放的位置(完整的集群环境需约15G的空间),Next.
至此,centos7虚拟机安装完成。
由于我们没有安装桌面环境,虚拟机中Centos的终端相对简陋,我们在宿主机终端通过SSH登录Centos即可.(主机系统为Ubuntu ,我们不需要下载其他的远程连接工具)
将服务器IP设为静态
打开网络配置文件,命令如下
1 | sudo vi /etc/sysconfig/network-scripts/ifcfg-ens33 |
用如下内容替换文件中的内容,将注释内容更改为自己服务器相应的。
1 | TYPE="Ethernet" |
重启网络
1 | sudo service network restart |
在宿主机hosts文件中添加相应服务器的域名映射.
1 | sudo gedit /etc/hosts |
测试SSH登录
1 | sudo ssh hadoop14 |
更改主机名
1 | sudo vi /etc/hostname # 修改为master |
Hadoop支持Openjdk ,因此我们可用使用命令 安装openjdk7,替代Oracle JDK。
1 | su -c "yum install java-1.7.0-openjdk" |
查看Java版本
1 | java -version |
配置Java环境变量
1 | sudo vi /etc/profile |
新建资源目录
1 | sudo mkdir /opt/softwares |
安装wget
1 | yum install wget |
下载hadoop2.7.3 ,速度较慢
推荐使用百度网盘下载到本地后,使用scp命令上传到服务器
链接: https://pan.baidu.com/s/1W_S5BcghFqjwdUi0GfqeSQ 密码: p2ek
1 | wget https://archive.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz #在线下载 |
解压hadoop,转到hadoop文件夹下,执行以下命令。
1 | tar -xvf hadoop-2.7.3.tar.gz |
关闭防火墙 由于hadoop需要打开的端口太多,因此此处暂时关闭了防火墙。要关闭防火墙,必须在root用户下使用以下命令:
1 | #Close the firewall |
创建数据存储目录
1 | cd /usr/local/hadoop |
配置环境变量
1 | sudo vi /etc/profile |
配置,进入hadoop目录下
1 修改core-site.xml文件
1 | <configuration> |
2 修改hdfs-site.xml文件
1 | <configuration> |
3 修改mapred-site.xml (重命名mapred-site.xml.template并添加以下内容) (这是MapReduce任务的配置。因为Hadoop 2.x使用yarn框架来实现分布式部署,所以必须在mapreduce.framework.name属性下配置yarn。mapred.map.tasks和mapred.reduce.tasks分别是map和reduce的任务数。)
1 | mv mapred-site.xml.template mapred-site.xml |
1 | <configuration> |
4 配置节点yarn-site.xml
1 | <configuration> |
5 配置hadoop环境变量
1 | [root@master ~]$ vi /etc/profile |
1 | [hadoop@master ~]$ vi ~/.bashrc |
克隆Hadoop02,Hadoop03节点。
关闭虚拟机master,然后在VMware左侧的虚拟机列表中右键单击【Hadoop01】,选择【Manager】->【Clone】
点击下一步,在Clone Type处选择Create a full clone
修改虚拟机名称与文件路径,点击完成,等待克隆完成
克隆Hadoop03的步骤同上
修改节点主机名
首先修改Hadoop02和Hadoop03的主机名(他们目前都是master)
1 | vi /etc/hostnames |
修改IP
1 | sudo vi /etc/sysconfig/network-scripts/ifcfg-ens33 |
添加域名解析
1 | 分别修改Hadoop01,Hadoop02,Hadoop03,及宿主机的域名映射文件 |
在各节点使用ping命令检查是否配置成功:
1 | ping master |
生成密钥文件:
1 | ssh-keygen -t rsa |
SSH分发
1 | ssh-copy-id master |
验证SSH登录
1 | ssh master |
格式化一个新的分布式文件系统:
1 | hadoop namenode -format |
1 | #在master上执行 |
jps查看各节点启动进程
1 | Hadoop集群启动并运行后,可以通过web-ui进行集群查看,如下所述: |
验证 HDFS HA 首先向 hdfs 上传一个文件
1 | hadoop fs -put /etc/profile / |
通过浏览器访问:http://192.168.200.11:50070
验证 YARN
运行一下 hadoop 提供的 demo 中的 WordCount 程序:
1 | hadoop jar /usr/app/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /profile /out |
至此,hadoop安装完成 下节Zookeeper安装