Redshift

Maxon发布Cinema 4D S22

穿精又带淫゛_ 提交于 2020-04-23 05:30:16
德国弗里德里希斯多夫--(美国商业资讯)--专业3D建模、动画和渲染软件解决方案的开发商 Maxon 今天发布了 Cinema 4D Subscription Release 22 (S22) 。它是Maxon的下一代3D应用程序和第一个仅限订阅的版本,让客户能够尽早获得显著的性能和交互性改进,包括 UV解包和编辑工具 、改进的选择和 建模工具功能 、 针对批量客户的组织许可 以及可在macOS上支持Metal的 更新视口技术 。此外,Maxon通过 GLTF导出 增强了Cinema 4D的管道兼容性,改进了 与Z-Brush的GoZ集成 ,并支持FBX和Cineware中基于节点的材料。订阅客户可以立即使用Cinema 4D S22。公司计划在今年晚些时候发布一个针对Cinema 4D永久许可证持有者的版本,其中将包含S22的功能以及其他增强功能。 Maxon首席执行官Dave McGavran表示:“去年9月,我们推出了基于订阅的选项,让我们能够以大幅降低的价格提供专业的3D软件。这也使我们能够更为经常性地为订阅客户提供改进和增强。S22让订阅用户能够尽早使用强大的解决方案。” Cinema 4D S22 概述 Cinema 4D S22 在线新闻资料包 推荐系统要求 Cinema 4D S22最低需要Windows 10或MacOS 10.13.6,使用最新版本10

Amazon Redshift数据迁移到MaxCompute

我是研究僧i 提交于 2020-03-30 12:12:49
Amazon Redshift数据迁移到MaxCompute Amazon Redshift 中的数据迁移到MaxCompute中经常需要先卸载到S3中,再到阿里云对象存储OSS中,大数据计算服务MaxCompute然后再通过外部表的方式直接读取OSS中的数据。 如下示意图: 前提条件 本文以SQL Workbench/J工具来连接Reshift进行案例演示,其中用了Reshift官方的Query editor发现经常报一些奇怪的错误。建议使用SQL Workbench/J。 下载Amazon Redshift JDBC驱动程序,推荐4.2 https://s3.amazonaws.com/redshift-downloads/drivers/jdbc/1.2.16.1027/RedshiftJDBC42-1.2.16.1027.jar 在SQL Workbench/J中新建Drivers,选择下载的驱动程序jar,并填写Classname为 com.amazon.redshift.jdbc42.Driver。 配置新连接,选择新建的Driver,并复制JDBC url地址、数据库用户名和密码并勾选Autocommit。 如果在配置过程中发现一只connection time out,需要在ecs的vpc安全组中配置安全策略。具体详见: https://docs.aws

cinnamon对比gnome

橙三吉。 提交于 2020-02-26 23:38:29
cinnamon对比gnome cinnamon对hidpi支持的比gnome好 cinnamon只要一个cinnamon-panel;gnome需要卸掉dash-to-dock,装上dash-to-panel,还需要一堆配置 cinnamon的生态比gnome好的多,从网上直接下载applet(例如qredshift,比redshift-gtk好多了)、extensions等,还有一堆人贡献theme qredshift是个applet,只要js、css、json写成的,控制redshift命令,对cinnamon主题的颜色、大小都支持的很好 albert状态栏图标:cinnamon正常大小;gnome很小 cinnamon搞了xapps生态,像xed、xreader、xviewer、xplayer、nemo等 budgie对比cinnamon budgie比较简单: 只是实现了个别关键部件,例如menu、raven等 功能不全,定制能力差,但是比较统一,例如panel的配置都放在budgie-setting中 没找到配置快捷键的地方在哪里。试了gnome的配置,不起作用 cinnamon几乎实现了全套: 包括nemo、xreader、xed等(虽然xreader比evince差一些) 定制能力强,例如panel上的calendar applet可以设置显示的日期时间的格式

亚马逊1万亿市值背后的架构经验

让人想犯罪 __ 提交于 2020-02-26 06:24:03
关于作者 原文作者Werner Vogels作为亚马逊首席技术官(CTO)和副总裁,是AWS的灵魂人物,也是云计算领域响当当的顶级专家。Werner Vogel拥有计算机博士学位,主要负责驱动亚马逊的技术创新,Werner还曾是康奈尔大学计算机系的研究科学家,主要研究高可靠高可扩展的企业系统。2004年加入亚马逊担任系统研究总监,2005年1月被任命为CTO和副总裁至今。Werner Vogels也是殊荣多多,因其在云计算的教育和推广方面的贡献,被信息周刊(InformationWeek)评为“2008年度CTO/CIO”;2010年被ReadWriteWeb读者投票评为“最具影响力的云计算高管”。 亚马逊在2006年3月14日发布AWS,到现在差不多10年了。回首过去的10年里,我们在构建 安全,高可用性,可扩展性,低成本的服务方面积累了几百条经验与教训。 由于AWS是建设并在全球运营这些服务的先驱,这些教训对我们的业务至关重要。正如我们以前多次说, “没有压缩经验的算法”,每月有超过百万的活跃客户,这些客户服务几个亿的用户,在这个过程我们不乏机会积累经验并持续优化从而为客户提供更好的服务。 我选择了下面这些经验教训,与大家分享,希望它们对你们有用。 1. 构建不断进化的系统 几乎从第一天开始,我们知道自己开发的软件在一年后将不会继续运行。我们需要重新审视和改进架构

LINUX 安装护眼软件

北慕城南 提交于 2019-12-24 15:54:51
1.1 更新软件 ybx@ybx-PC:~$ sudo apt-get update 命中:1 http://packages.deepin.com/deepin lion InRelease 正在读取软件包列表... 完成 1.2 查找redshift软件 ybx@ybx-PC:~$ apt-cache search redshift | grep ^r redshift - Adjusts the color temperature of your screen redshift-gtk - Adjusts the color temperature of your screen with GTK+ integration 1.3 安装软件 ybx@ybx-PC:~$ sudo apt-get install redshift 正在读取软件包列表... 完成 正在分析软件包的依赖关系树 正在读取状态信息... 完成 redshift 已经是最新版 (1.11-1)。 升级了 0 个软件包,新安装了 0 个软件包,要卸载 0 个软件包,有 0 个软件包未被升级。 1.4 创建配置文件 redshift.conf ; 白天屏幕温度 temp-day=5800 ; 夜晚屏幕温度 temp-night=4600 ; 昼夜是否平滑过度(1/0) transition=1 ; 全局屏幕亮度

Spark Redshift with Python

匿名 (未验证) 提交于 2019-12-03 10:24:21
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I'm trying to connect Spark with amazon Redshift but i'm getting this error : My code is as follow : from pyspark.sql import SQLContext from pyspark import SparkContext sc = SparkContext(appName="Connect Spark with Redshift") sql_context = SQLContext(sc) sc._jsc.hadoopConfiguration().set("fs.s3n.awsAccessKeyId", <ACCESSID>) sc._jsc.hadoopConfiguration().set("fs.s3n.awsSecretAccessKey", <ACCESSKEY>) df = sql_context.read \ .option("url", "jdbc:redshift://example.coyf2i236wts.eu-central- 1.redshift.amazonaws.com:5439/agcdb?user=user&password

Redshift - Convert epoch string to timestamp

匿名 (未验证) 提交于 2019-12-03 09:52:54
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I have got a table with 2 columns epoch_start and epoch_end. I want to find the difference in days of these 2 epochs. The problem i am facing is that the above columns are character varying(5000) type. The query im running is select datediff(day,'1459762341','1450762341') as numdays; The error i get is ERROR: invalid input syntax for type timestamp: "1459762341" 回答1: I have found the solution - To get timestamp from epoch - SELECT (TIMESTAMP 'epoch' + '1459762341' * INTERVAL '1 Second ') as mytimestamp For datediff between two epochs -

Hive ― split data across files

匿名 (未验证) 提交于 2019-12-03 08:46:08
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: Is there a way to instruct Hive to split data into multiple output files? Or maybe cap the size of the output files. I'm planning to use Redshift, which recommends splitting data into multiple files to allow parallel loading http://docs.aws.amazon.com/redshift/latest/dg/t_splitting-data-files.html We preprocess all out data in hive, and I'm wondering if there's a way to create, say 10 1GB files which might make copying to redshift faster. I was looking at https://cwiki.apache.org/Hive/adminmanual-configuration.html and https://cwiki.apache

How to calculate median in AWS Redshift?

匿名 (未验证) 提交于 2019-12-03 08:41:19
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: Most databases have a built in function for calculating the median but I don't see anything for median in Amazon Redshift. You could calculate the median using a combination of the nth_value() and count() analytic functions but that seems janky. I would be very surprised if an analytics db didn't have a built in method for computing median so I'm assuming I'm missing something. http://docs.aws.amazon.com/redshift/latest/dg/r_Examples_of_NTH_WF.html http://docs.aws.amazon.com/redshift/latest/dg/c_Window_functions.html 回答1: And as of 2014-10

Amazon Redshift at 100% disk usage due to VACUUM query

匿名 (未验证) 提交于 2019-12-03 03:08:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: Reading the Amazon Redshift documentatoin I ran a VACUUM on a certain 400GB table which has never been vacuumed before, in attempt to improve query performance. Unfortunately, the VACUUM has caused the table to grow to 1.7TB (!!) and has brought the Redshift's disk usage to 100%. I then tried to stop the VACUUM by running a CANCEL query in the super user queue (you enter it by running "set query_group='superuser';") but although the query didn't raise an error, this had no effect on the vaccum query which keeps running. What can I do? 回答1: