Archive for January, 2017

作者:AngryFox 分类: Uncategorized January 19th, 2017 暂无评论

PHP iconv(): Unknown error (84)
语法错误
如果你加上 //TRANSLIT 到out_charset 的参数后面,意味着如果找不到目标编码,则程序会去找与其相近的编码。如果你加的是//IGNORE,则不会去找相近的编码,而且只要有一个字符是程序无法识别的则将会报错。
根据上面的解释我将代码
iconv(‘gb2312′,’utf-8′, serialize($storeData));
改为
iconv(‘gb2312′,’utf-8//TRANSLIT//IGNORE’, serialize($storeData));

作者:AngryFox 分类: Uncategorized January 15th, 2017 暂无评论

Grumpy 是一个实验性的 Python 运行时。它将 Python 代码翻译成 Go 程序,转译(transpiled)得到的程序可以与 Go 运行时无缝集成。 Grumpy 去掉了 GIL,这就可以利用 Go 的垃圾收集来管理对象生命周期,而不再是依赖引用计数.,Grumpy 可以分为 grumpc 、 Grump 运行时和 Grumpy 标准库三块。其中grumpc 负责将 Python 程序转换为 Go 程序。解析 Python 代码,生成 Go 代码。它是用 Python 实现的。
从系统结构层面来看,系统分应用业务层、应用服务层,系统所依赖基础数据由平台服务层提供。

从服务部署层面来看,业务主要部署在三大服务集群,分别为Home池、Page池以及应用服务池。
php7

(1)addassocstringl参数4个改为了3个。

//PHP5
 add_assoc_stringl(parray, key, value, value_len);
//PHP7
 add_assoc_stringl(parray, key, value);
(2)addnextindex_stringl 参数从3个改为了2个。

//PHP5
 add_assoc_stringl(parray, key, value, value_len);
//PHP7
 add_assoc_stringl(parray, key, value);
(3)RETURN_STRINGL 参数从3个改为了2个。

//PHP5
RETURN_STRINGL(value, length,dup);
//PHP7
RETURN_STRINGL(value, length);
(4)变量声明从堆上分配,改为栈上分配。

//PHP5
zval* sarray_l;
ALLOC_INIT_ZVAL(sarray_l);
array_init(sarray_l);  

//PHP7
zval sarray_l;
array_init(&sarray_l);
(5)zendhashgetcurrentkey_ex参数从6个改为4个。

//PHP5
ZEND_API int ZEND_FASTCALL zend_hash_get_current_key_ex (
     HashTable* ht,
    char** str_index,
    uint* str_length,
    ulong* num_index,
    zend_bool duplicate,
    HashPosition* pos);  

//PHP7
ZEND_API int ZEND_FASTCALL zend_hash_get_current_key_ex(
      const HashTable *ht,
     zend_string **str_index,
     zend_ulong *num_index,
     HashPosition *pos);

一个支付系统不例外包括几个重要组成部分:收银台、交易、支付、网关、账务。

收银台:用于展示支付详情、提供各种多样支付方式的选择
交易:收单规则和交易规则处理
支付:处理各种组合的支付方式,如银行卡、用户余额、信用付、拿去花、红包、代金券、立减、积分等
账务:用来记录所有交易、资金往来的明细,财务会计记账
网关:用于对接银行通道、第三方支付通道(微信、支付宝)
大数据平台的数据源集中来源于三个方面,按比重大小来排序:

60%来源于关系数据库的同步迁移: 大多数公司都是采用MySQL和Oracle,就拿互联网金融平台来说,这些数据大部分是用户基本信息,交易数据以及资金数据。
30%来源于平台埋点数据的采集:渠道有PC、Wap、安卓和IOS,通过客户端产生请求,经过Netty服务器处理,再进Kafka接受数据并解码,最后到Spark Streaming划分为离线和实时清洗。
10%来源于第三方数据:做互联网金融都会整合第三方数据源,大体有工商、快消、车房、电商交易、银行、运营商等等,有些是通过正规渠道来购买(已脱敏),大部分数据来源于黑市(未脱敏)。这个市场鱼龙混杂、臭气熏天,很多真实数据被注入了污水,在这基础上建立的模型可信度往往很差。