aws

AWS lambda vs ec2 - 前端三分鐘

梦想与她 提交于 2019-12-01 18:52:12
Lambda 對一個大部分時間都在看前端的攻城獅來說 serverless 聽起來是一個蠻夢幻的解決方式,而 AWS lambda 就是這樣的一個解決方案,並不需要過多的伺服器設定馬上就可以讓網站上線了,初步只是想做嘗試的話,網路上已經有人寫了一個 小工具 - scandium tool ,當然還是需要先使用 aws command line tool 先初始化 AWS 相關設定。 好處就是不用顧機台,而且不用擔心會掛掉。 Scandium tool 這個工具在發布時會讀取相關配置進行發佈,一些可能的問題大概是靜態檔案要自行放至其他地方,lambda 本身好像並不能讓你放靜態檔案? 初步用起來感覺比較適合單純的後端頂多加簡單的樣板像 ejs 配合使用,然後靜態檔案都放到 S3 大专栏 AWS lambda vs ec2 - 前端三分鐘 去這樣~ 如果是比較複雜的 SPA 還有拆分 chunk 外加一些建置過的樣式檔,還有相關靜態 resoure 因為還要設路徑等等,發佈就變很麻煩… 如果有自己寫好一個 S3 資源管理,圖片就都可以用固定聯結,可能較不會有資源檔的問題。 ec2 就是一部虛擬機器,好處是不需要重新學習太多 AWS 的相關知識,只要注意好開 port 保存好存取的 key 原則上並沒有太多問題,如果需要管理 domain 我的認知上在 lambda 是沒辦法做

利用 AWS DMS 在线迁移 MongoDB 到 Amazon Aurora

只谈情不闲聊 提交于 2019-12-01 09:58:50
将数据从一种数据库迁移到另一种数据库通常都非常具有挑战性,特别是考虑到数据一致性、应用停机时间、以及源和目标数据库在设计上的差异性等因素。这个过程中,运维人员通常都希望借助于专门的数据迁移(复制)工具来降低操作的复杂性和对业务的影响。AWS数据迁移服务(AWS DMS)可帮助AWS用户快速、安全、无缝地将MongoDB、Oracle、MySQL和Microsoft SQL Server等数据库迁移到AWS。 源数据库在迁移期间仍然可以运行,因此最大程度地减少了依赖于数据库的应用程序的停机时间。 MongoDB是一个流行的跨平台的面向文档的NoSQL数据库,拥有非常多的应用场景和很大的用户群体。但是某些情况下用户需要将MongoDB迁移或者复制到关系数据库,比如将文档数据从MongoDB复制到MySQL来进行复杂关连分析处理,或者由于在数据库选型方面分析不够,错选了数据库类型而需要迁移到关系数据库。 在本文中,我们将讨论将MongoDB 4.0数据平滑迁移到Amazon Aurora MySQL兼容版的方法。Amazon Aurora 是一种与 MySQL 和 PostgreSQL 兼容的关系数据库,专为云而打造,既具有传统企业数据库的性能和可用性,又具有开源数据库的简单性和成本效益。本文中描述的方法使用AWS DMS转换源数据,近乎零停机时间来执行迁移。 设置MongoDB 4

[AWS - EC2]如何使用 PuTTY 连接到 Amazon Linux 2 实例。How to Connect Amazon Linux 2 Instance from Windows Using PuTTY

て烟熏妆下的殇ゞ 提交于 2019-12-01 09:24:15
1. 下载 PuTTY 2. 安装到任意目录 3. 打开 PuTTYgen (注意不是 PuTTY), 如图: 选择 RSA , 点击 Load。 找到从 AWS 创建实例的时候生成的 key,要选择所有文件才能显示。 弹出个提示: 是 原来pem的key已经被转成RSA格式, 导出私有密钥为ppk : 4. 关掉 PuTTYGen 打开 PuTTY 。 在Host Name 里输入 EC2 实例的 公有 DNS (IPv4) 。 端口 22。(最好保存一下以后用) 5. 左侧的 Connection 》》 SSH 》》 Auth 里。 选择刚才生成的ppk密钥。 6. 点击Open ,输入用户名 ec2-user 即可登录。( Amazon Linux 2 ) 其他实例的用户名: 对于 CentOS AMI,用户名称是 centos 。 对于 Debian AMI,用户名称是 admin 或 root 。 对于 Fedora AMI,用户名为 ec2-user 或 fedora 。 对于 RHEL AMI,用户名称是 ec2-user 或 root 。 对于 SUSE AMI,用户名称是 ec2-user 或 root 。 对于 Ubuntu AMI,用户名称是 ubuntu 。 参考文档: AWS EC2 官方文档 来源: https://www.cnblogs.com

aws Lightsail 安装宝塔面板

故事扮演 提交于 2019-12-01 08:03:56
登陆aws Lightsail 推荐大家通过aws Lightsail控制台登陆 登陆的账号默认为普通用户, 输入 yum install -y wget && wget -O install.sh http://download.bt.cn/install/install_6.0.sh && sh install.sh 出现以下提示 Loaded plugins: fastestmirror You need to be root to perform this command. 由于安装宝塔面板需要root权限,所以这里我们要切换到root用户。 su root 如果是首次登陆需要设置root密码 sudo passwd 切换到root用户后在复制以下代码安装宝塔面板,代码来自宝塔官方 yum install - y wget && wget - O install . sh http : //download.bt.cn/install/install_6.0.sh && sh install.sh 输入以上代码,即可自动安装宝塔面板了。 来源: https://www.cnblogs.com/jialaomao/p/11671828.html

为什么是亚马逊这样的零售商,而不是谷歌等科技公司做成了云计算?

余生长醉 提交于 2019-12-01 08:02:34
根据著名的IT调研机构Gartner的预测,2019年云计算市场将达到2060亿美元的惊人规模。而最早推出云计算服务的亚马逊云AWS,直到今天依然可以占到几乎一半的云计算市场份额,领跑其他的科技公司。 人们不禁会问,为什么云计算这个看似只能在IBM,Google,微软这样的科技公司中诞生的产品,反而是被一个做网上零售生意的亚马逊做出来了?为什么亚马逊的云计算发布了7年都没有引起其他科技公司的重视,一直到亚马逊的财报显示AWS营收已经占其利润的5%,其他科技公司才开始行动?到现在13年已经过去了,为什么那些老底儿丰厚的科技公司依旧没有追上技术并不出众的亚马逊? 在技术圈里,有这样的一种说法:认为亚马逊的零售业带有季节性,只有假期的几个月访问量巨大,其他时候流量较小。因此亚马逊创始人贝佐斯决定在业务比较萧条的时期出租公司里多余的计算机容量。——就像阿里巴巴在每年双11时,流量集中,所以要添置大量的服务器来保证网站运行稳定。除了双11需要这么多的服务器,其他时候这些服务器闲置,所以对其出租是公司成本的充分利用。但是这种解释被亚马逊内部员工广泛否认,因为如果这样的解释属实,那么亚马逊就要在每年秋冬流量大的时候把开发者从服务器里踢出去。 AWS最早的模型在2002年就出现了,2006年正式上线,包括最核心的EC2,S3和SQS。现在回头解释可以套用各种想必如此的原因,不过回顾历史

免费云服务器,这坑小心你也踩了

↘锁芯ラ 提交于 2019-12-01 07:28:19
有些小伙伴可能不知道,亚马逊AWS对新用户有个免费体验一年的活动。如果希望体验免费亚马逊AWS云服务器产品,或者看看他们后台面板长什么样,体验产品的速度和性能,又或者准备搭建一个免费梯子,可以 注册玩玩。 很简单,全程基本都是中文,不用担心看不懂英文。 我是2018年6月30号注册的账号,在EC2面板创建了一个实例,平时就上上谷歌;国内网速慢,在上面下载一些kubernetes镜像,编译一些golang项目。 悲剧的是我把时间记错了,以为是2016年8月10号开始使用的,能用到今年8月。直到8月份信用卡收到扣费提示,才发现时间记错了... 于是乎,赶紧到EC2 DashBoard面板把实例停止,删除掉,以为这样就不会再扣费了。 结果到9月份又收到信用卡扣费提醒: 这次我以为是扣除8月份的,也就20多元,没当回事。 到10月份又收到信用卡扣费提醒: 这次我就解释不了了。 登陆亚马逊控制台,点击到【用户名】>> 我的账户 >> 账单,选择7月份,看到扣费详情: 每个云服务器实例每小时0.0716美元,共使用160小时,扣费11.46美元; 每月每GB通用固态SSD(gp2)预置存储0.10美元,使用6.422 GB,扣费0.64美元; 每小时未附加到正在运行的实例的每个弹性IP地址0.005美元,扣费2.92美元; 同样的查看了8,9,10月的扣费详情后。我把EC2

[原创]导出aws ec2为csv

我与影子孤独终老i 提交于 2019-12-01 05:02:43
1、安装 pip install boto3 csv 2、使用脚本更新秘钥和地区 # 导出aws ec2列表为cvs import boto3 import csv ec2 = boto3.client( 'ec2' , aws_access_key_id = "<key_id>" , aws_secret_access_key = "<秘钥>" , region_name = '地区' , ) # Retrieves all regions/endpoints that work with EC2 # response = ec2.describe_regions() # print('Regions:', response['Regions']) # Retrieves availability zones only for region of the ec2 object # response = ec2.describe_availability_zones() # print('Availability Zones:', response['AvailabilityZones']) response = ec2.describe_instances() with open ( "东京.csv" , "w" , newline = "") as csvf: writer =

Lambda 使用环境变量与 AWS X-Ray 通信

孤街浪徒 提交于 2019-11-30 19:00:56
AWS Lambda 使用环境变量以便于与 X-Ray 守护程序进行通信和配置 X-Ray 开发工具包。 _X_AMZN_TRACE_ID: 包含跟踪标头,其中包括采样决策、跟踪 ID 和父分段 ID。(要了解有关这些属性的更多信息,请参阅 跟踪标头 。) 如果调用您的函数时 Lambda 收到跟踪标头,该标头将用于填充 _X_AMZN_TRACE_ID 环境变量。如果 Lambda 未收到跟踪标头,将为您生成一个跟踪标头。 AWS_XRAY_CONTEXT_MISSING: 您的函数尝试记录 X-Ray 数据,但跟踪标头不可用时,X-Ray 开发工具包使用此变量确定其行为。默认情况下,Lambda 将此值设为 LOG_ERROR 。 AWS_XRAY_DAEMON_ADDRESS: 此环境变量公开了 X-Ray 守护程序的地址,格式为: IP_ADDRESS : PORT 。您可以使用 X-Ray 守护程序的地址,直接将跟踪数据发送到 X-Ray 守护程序,而无需使用 X-Ray 开发工具包。 来源: https://www.cnblogs.com/cloudrivers/p/11636327.html

Amazon Redshift 中的数据保护

半腔热情 提交于 2019-11-30 18:54:49
应该是只有S3和Redshift可以在使用途中启用加密选项,其他服务如EC2、RDS启动加密都必须是在创建时启用,否则需要数据导入导出操作。 您可以使用 AWS 管理的密钥或客户管理的密钥 (CMK) 修改未加密的集群以使用 AWS Key Management Service (AWS KMS) 加密。 当您修改集群以启用 KMS 加密时,Amazon Redshift 会自动将您的数据迁移到新加密的集群 。您还可以通过修改集群将未加密的集群迁移到加密的集群。 在迁移操作过程中,您的集群处于只读模式,集群状态显示为 正在调整大小 。 使用 CLI 更改集群加密 要修改未加密的集群以使用 KMS,请运行 modify-cluster CLI 命令并指定 –-encrypted ,如下所示。默认情况下,使用您的默认 KMS 密钥。要指定客户管理的密钥,请包括 --kms-key-id 选项。 aws redshift modify-cluster --cluster-identifier <value> --encrypted --kms-key-id <value> 要从您的集群中删除加密,请运行以下 CLI 命令。 aws redshift modify-cluster --cluster-identifier <value> --no-encrypted 来源: https:/

Amazon Redshift Spectrum

倾然丶 夕夏残阳落幕 提交于 2019-11-30 18:39:45
Amazon Redshift Spectrum 驻留在独立于您的集群的专用 Amazon Redshift 服务器上。 Redshift Spectrum 将很多计算密集型任务 (如谓词筛选和聚合) 下推到 Redshift Spectrum 层。因此,Redshift Spectrum 查询使用的集群处理容量比其他查询的少得多。Redshift Spectrum 还可智能地扩展。基于您的查询的需求,Redshift Spectrum 可能能够使用数千个实例来利用大规模并行处理。 您通过定义您的文件的结构并将文件作为外部数据目录中的表注册来创建 Redshift Spectrum 表。外部数据目录可以是 AWS Glue、Amazon Athena 附带的数据目录或您自己的 Apache Hive 元存储。您可使用数据定义语言 (DDL) 命令或使用连接到外部数据目录的任何其他工具从 Amazon Redshift 创建和管理外部表。对外部数据目录进行的更改将立即对您的任何 Amazon Redshift 集群可用。 您也可在一个或多个列上为外部表分区。将分区定义为外部表的一部分可提升性能。改进的原因是 Amazon Redshift 查询优化程序消除了不含所查询数据的分区。 在定义 Redshift Spectrum 表之后,您可以像查询和联接任何其他 Amazon