postgresql

自助BI工具:Tableau和Smartbi的对比(上)

风流意气都作罢 提交于 2021-02-02 21:13:32
商业智能(BI)和分析平台长期以来一直是商业的重要组成部分,但由于自助BI工具的兴起,在数据科学家和数据库管理员的支持下,分析的责任已经从IT转移到了商业分析师身上。 因此,BI已经从生成月度报告的记录系统,转变为基于各种内部和外部来源的数据,交互式地发现和共享趋势、预测以及对业务问题的回答。采用自助BI的企业可以在几天内决定行动方案,而不是需要长达几个月的时间。 1、部署使用 Tableau 为C/S架构,需要在用户终端安装desktop进行分析的设计,在服务器端安装server,将模块数据与分析发布在server上,使用reader查看客户端生成的分析,可以在web断和移动端查看在server上发布的分析。体量较大,布署稍复杂,使用时需要客户端配合。 Smartbi 采用B/S架构,容易部署、升级简便。让大数据应用和分析走进员工和管理者工作中,激发各层人员对数据的认知、挖掘和运用;通过推动全员自助分析、数据共享,提升企业数据资产价值,促进业务发展、风险控制和内部管理,进而推动数字化转型。也可以集成到自己开发的项目中使用。 2、平台界面 Tableau是服务器与客户端分离的,平台管理与设计分开进行,产品的逻辑清晰,易于理解、便于用户的操作,但不利于IT部门管控和配合。 Smartbi是把整个平台和设计都放在一个界面上,利用权限管理,来控制每个使用者显示的界面。有利于企业级的管控。

PostgreSQL “column ”foo“ does not exist” where foo is the value

大城市里の小女人 提交于 2021-02-02 09:35:26
问题 I'm trying to perform an Update query on a Postgres db from Node, and I'm running into this weird issue: 'UPDATE salesforce.Guest__c SET currently_at_property__c = "foo" WHERE rewards_id ='+rewardsId, I'm trying to set the currently_at_property__c equal to the value "foo" but for some reason I'm getting this error: error: "column "foo" does not exist" I don't know why this is happening, since foo is the value, NOT the column. 回答1: Correct with the right quote: 'UPDATE salesforce.Guest__c SET

PHP pg_prepare() table name as parameter

走远了吗. 提交于 2021-02-02 09:32:44
问题 I'm trying to convert this query from a normal pg_query() to pg_prepare() & pg_execute() . Its a generic query that I reuse when I need to update different tables from different pages in order to keep my code clean. I've just realised that parameters can be used only in where clauses and not in other parts of the query. $res = pg_query($con, "update " . $_REQUEST['table'] . " set " . $_REQUEST['colname'] . "=" . $colval . " where " . $_REQUEST['colnameid'] . "=" . $_REQUEST['colvalid'] . "

编写Postgres扩展之二:类型和运算符

岁酱吖の 提交于 2021-02-02 06:57:45
原文: http://big-elephants.com/2015-10/writing-postgres-extensions-part-ii/ 编译:Tacey Wong 在上一篇关于编写Postgres Extensions的文章中,我们介绍了扩展PostgresQL的基础知识。现在是有趣的部分来了——开发我们自己的类型。 一个小小的免责声明 最好不要急于复制和粘贴本文中的代码。文中的代码有一些严重的bug,这些bug是为了说明解释的目的而故意留下的。如果您正在寻找可用于生产的 base36 类型定义,请查看 这里 。 复习一下base36 我们需要的是一个用于存储和检索 base36数字 的base36数据类型的可靠实现。我们已经为扩展创建了基本框架,包括base36、controler和Makefile,您可以在专门用于本系列博客文章的GitHub repo中找到它们。您可以查看我们在第1部分中得到的结果,本文中的代码可以在第2部分分支中找到。 文件名:base36.control # base36 extension comment = 'base36 datatype' default_version = '0.0.1' relocatable = true 文件名:Makefile EXTENSION = base36 # 扩展名称 DATA = base36--0

数据库pgpool-II 4.1.4 高可用集群之VIP漂移

て烟熏妆下的殇ゞ 提交于 2021-02-01 12:54:51
问题描述: 在一次部署PostgreSQL12.3流复制+pgpool-ii 4.1.4高可用集群的时候,遇到了很奇怪的vip漂移问题:PostgreSQL主库down掉后,vip不会漂移到备库,但是当我把主库启动后,vip反而漂移到了备库。 解决思路: 第一反应就是failover_stream.sh切换脚本有问题,于是手动执行了一下脚本,发现这个脚本只是用来切换PostgreSQL数据库主、备角色的,VIP并没有发生什么变化;期间参考了百度十几种方法和建议,都没有解决这个问题。最终,我在PostgreSQL官网找到了答案,与大家分享。 问题排查: 其实这个问题是pgpool-ii 4.1.4配置文件参数导致的,我看了网上很多的部署教程,在配置pgpool的时候都没有注意这个地方,如下: 3.1.vi进入pgpool配置文件pgpool.conf,找到以下部分; 修改如下: watchdog 发生故障后, 处理的相关配置(宕机, pgpool进程终止) #- Watchdog consensus settings for failover – failover_when_quorum_exists = on failover_require_consensus = on allow_multiple_failover_requests_from_node = on

高薪急招CTO&合伙人!还有年薪500k的技术岗虚位以待!

老子叫甜甜 提交于 2021-02-01 11:56:48
这是养码场内推功能上线后的 第31期 每周三定期放送! 可别错过~ 过完中秋想国庆 还得想想升职加薪怎么办…… 晋升 CTO不容易? 人工智能的门槛太高? 这一波内推 统统解决! 在放送详细岗位JD前,场主要和大家强调下 养码场内推岗位征集 ,有招聘需求的 技术人 可以 直接 添加【牛奶:milk6666666666】发布 内推技术岗位 信息! 1、若干优质内推岗位可进行养码场多渠道曝光; 2、免费、快速、精准触达8w+人技术社群; 3、让有招聘需求的技术人轻松get优质简历! 内推 就是 短!平!快! 养码场内推 第31期 技术岗位 大 放 送! 杭州稻芒数据技术有限公司 团队介绍: 稻芒数据 专注 城市房地产数据产品研发 ,基于住宅、商铺、办公等物业最小颗粒维度的地理位置属性和房屋价值属性为客户提供提供全方位、多场景的房地产大数据服务。 核心团队成员在房地产互联网领域深耕多年,成功交付多个房地产数据项目。稻芒数据致力于房地产数据的标准统一,共享融通。 工作地 点:杭州市滨江区长河路590号东忠科技园2幢7楼A715室 CTO&合伙人 Base:杭州 岗位职责: 负责管理 IT 团队和完成产品 IT 开发。 任职要求: 1、90后; 2、IT工作经验2年及以上; 3、python/Java/C++; 4、有带团队队或独立开发经验或架构师经验; 5

FPGA+DSP的高速AD采集处理开发详解

六月ゝ 毕业季﹏ 提交于 2021-02-01 04:02:04
1 案例说明 1. Kintex-7 FPGA使用 SRIO IP核 作为Initiator,通过 AD9613模块 采集AD数据。AD9613采样率为 250MSPS ,双通道 12bit ,12bit按照 16bit 发送,因此数据量为 16bit * 2 * 250M = 8Gbps ; 2. AD数据通过 SRIO 由Kintex-7发送到C6678 DSP(Target)的0x0C3F0000~0x0C3F7FFF的地址空间,数据量为 32KByte ,使用 SWRITE 方式,期间每传16KByte数据后就发送一个 DOORBELL信息 ,让C6678做 乒乓处理 。Kintex-7通过SRIO与C6678连接,共4个lane,每个lane的通信速率为5Gbps,数据有效带宽为 20Gbps * 80% = 16Gbps ; 3. 采集到的AD数据可分别通过 Xilinx Vivado 和 TI CCS 软件查看波形,并在C6678做 FFT处理 。 此开发案例基于创龙 Kintex-7+C6678 评估板 TL6678F-EasyEVM 展开。 AD采集处理案例视频 2 案例框图 3 案例演示 硬件连接 (1) 将创龙AD9613高速AD模块 TL9613/9706F (此模块集成高速DA,DA芯片为AD9706)通过 FMC接口 与评估板连接。 (2)

How to optimize query if I already use GIN index

十年热恋 提交于 2021-01-29 22:57:50
问题 I use (PostgreSQL) 11.8 and I try to provide full text search opportunity by some columns. For that I created GIN index with multiple fields and coalesce. And after my data base grewto 344747 rows in table products I faced with slow execution in my query. When I execute query example I faced with approximately 4.6s. In analyzing information I see my index used, but still slowly. Bitmap Index Scan on npdbcs_swedish_custom_index present. If I correct made conclusion many time spent to grouping.

How to optimize query if I already use GIN index

生来就可爱ヽ(ⅴ<●) 提交于 2021-01-29 22:45:48
问题 I use (PostgreSQL) 11.8 and I try to provide full text search opportunity by some columns. For that I created GIN index with multiple fields and coalesce. And after my data base grewto 344747 rows in table products I faced with slow execution in my query. When I execute query example I faced with approximately 4.6s. In analyzing information I see my index used, but still slowly. Bitmap Index Scan on npdbcs_swedish_custom_index present. If I correct made conclusion many time spent to grouping.

Combine multiple rows with different dates with overlapping variables (to capture first and last change dates)

僤鯓⒐⒋嵵緔 提交于 2021-01-29 22:22:08
问题 I have the following data represented in a table like this: User Type Date A Mobile 2019-01-10 A Mobile 2019-01-20 A Desktop 2019-03-01 A Desktop 2019-03-20 A Email 2021-01-01 A Email 2020-01-02 A Desktop 2021-01-03 A Desktop 2021-01-04 A Desktop 2021-01-05 Using PostgreSQL - I want to achieve the following: User First_Type First Type Initial Date Last_Type Last_Type_Initial_Date A Mobile 2019-01-10 Desktop 2021-01-03 So for each user, I want to capture the initial date and type but then also