`
eyejava
  • 浏览: 1256217 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

《信用评分及其应用》读书笔记一

    博客分类:
  • BI
阅读更多


这本书主要描述的是消费信贷的情况,企业贷款不在描写的范围之中

信用评分(credit scoring):决策是否给某个申请人贷款,信用评分评估的不是消费者的个人信誉,信用评分不是一个人的特征,而是贷款人对借款人评估,反映了借贷双方的情况
行为评分(behavior scoring):决策如果管理现有客户,是否给他们增加信用额度
评分卡(scoring card): 对不同的特征赋予不同的分数
信用评分的哲学基础是实用主义和经验主义,目的是预测风险而不是解释风险

信用评分实践(practice)概要
1.评分前的信用评估
靠的信贷审批人员对申请人员的主管判断,这种做法没有统一标准而且效率低下。消费信贷的兴起,必须加速信贷审批的处理,特别是信用卡的兴起,有些机构每天要处理几千笔的信用卡申请,靠人工审批变得不现实。
2.评分卡
评分卡拥有一些特征变量,每个特征变量都不同的值,针对不同的特征变量值设定分数,然后针对不同申请人对应的特征变量值累计总分数。贷款机构一般会设定一个及格线,或者一个参考分数线范围,或者结合征信局信用报告的其他判别标准
3.信用评分咨询机构
评分开发商已经更愿意同放贷机构联合开发软件
4.验证评分卡的有效性
在使用评分卡系统之前,必须验证其有效性
5.人工修正和人工干预
原因可能是申请表信息错误,有些贷款机构制定的流程就有专门一个分数区域需要人工审核,或者现实情况与评分卡设定的前提已经有变化
6.监测和跟踪
评估一组账户的表现情况是否与评分系统预测的情况一致,并进行相应的纠正或者扩大评估面增加盈利性

建立评分卡的统计方法
判别分析(Discriminent Analysis):决策论(Decision Theory)
设X=(X1,X2,...,Xp)是描述申请人信息的p个随机变量的集合,集合的特征值用x=(x1,x2,...xp)表示。AG 表示好客户具有的特征项集合,AB表示差客户具有的特征项集合。
p(x|G)表示好申请人具有特征x的概率,q(G|x)表示具有特征x的申请人是好客户的概率。这两个都是条件概率。PB表示坏客户的概率,PG表示好客户的概率。
将申请人分为好客户和差客户存在两种类型的错误
1.将一个好客户错误地划分为差客户
2.将一个差客户错误地划分为好客户
这两种错误相应的会带来两种损失:
1.本该从该好客户身上赚取的利润,记为L,假定每个好客户的利润期望值都是相同的
2.坏客户的违约损失期望值,记为D,假定每个差客户的违约损失期望值都是相同的
决策条件:当一个客户划分到好客户带来的损失<=划分到差客户带来的损失则将这个客户划分到好客户中,即申请通过,用公式表示是 D*P(x|B)*PB<=L*P(x|G)*PG , 经过条件概率公式(贝叶斯定理)变形后,得到AG的集合表达式:
AG={x| D/L <= q(G|x)/q(B/x) }  -----------------4.8
即只要满足D除以L 小于等于有该特征项是好客户的概率除以有该特征项是差客户的概率 的这些特征项 就可以作为申请决策的判断依据特征项。
以上这种方法的弊端在于D和L都是未知的,并且还假定了每个客户的D,L都是相同的,这也不符合现实情况,从统计学的角度只能用D和L的期望值来代替。

为了解决以上问题可以从另一个判断依据来推导,即不从最小化损失的角度,而是让犯一种错误的概率在可接受水平,然后使得犯另一类错误的概率最小。信贷决策一般会将申请通过率在一个可接受的水平,然后使得差客户错误地划分为好客户的概率最小。
若接受申请的百分比(接受比率)设定为α,则
∑p(x|G)PG + ∑p(x|B)PB = α (x∈AG)
目前α是固定值,需要使得∑p(x|B)PB 最小化,p(x|B)PB记为b(x),p(x)满足如下等式
∑p(x)=α  (x∈AG)
利用拉格朗日乘子法可以得到AG集合:
AG={x| (1-c)/c <= q(G|x)/q(B/x) },  ---------4.11
这个不等式同之前方法得到的不等式是一致的,只是c,D,L取值的变化
4.11式如何应用??

这个不等式对于特征变量值是连续时也是成立的,不等式如下
AG={x|D*PB/L*PG <= f(x|G)/f(x|B) }             ---------4.13
其中f(x|G),f(x|B) 是条件概率密度函数

1.单变量正太情形
假设特征变量值有一个,并且是连续的,且f(x|G) 是均值μG方差σ2正太分布,从4.13式子中可以推导出
“如果x越大不等式越成立,即x值足够大则接受申请”

2.协方差相等的多元正太情形
一个特征变量显然不是现实情况,更真实的例子是申请信息中有p个特征变量,他们在好客户和差客户中的分布密度都是多元正太分布,这种情况下可以推导出一个线性评分准则(Linear Scoring Rule),成为线性判别函数(4.16式) (Linear Discriminant Function)
分布密度的均值和协方差矩阵是无法得知的,一般用样本均值mG,mB,样本协方差矩阵S代替,4.16会变形为4.17式(中文版的4.17式有错误,请参考英文版)
如何应用这个线性判别函数??

3.协方差不等的多元正太情形
这种情况的结果会得到一个二次函数,这似乎是一个更一般的决策准则,但Reichert Cho和G.M.Wagner在1983年证明了二次函数决策准则还不如线性准则稳健。

判别分析:将两组分开 
Y=w1X1 + w2X2 + ... + wpXp是针对特征变量X1,X2,...Xp的任意一个线性组合
Fisher提出当两组的样本方差相等时,一个敏感的分离度指标是
M=两个样本均值的距离/每组样本方差的平方根
让M最大化,可以得到结论:
wT 正比于 1/S * (mG-mB)T  --- 公式4.21
wT是一个特征量系数矩阵,S是样本方差,mG是好客户的均值,mB是坏客户的均值

判别分析:线性回归
设线性函数pi=w0+xi1w1+xi2w2+...+xipwp,对这个线性函数进行线性回归。pi是第i个申请人违约的概率,那么对于nG个好客户来说,pi=0,对于nB个差客户来说,pi=1。(这个地方原书和中文书都貌似搞反了,前者写成pi=1,后者写成pi=0)
从寻找特征变量最优特征变量组合的角度来寻找结论,结论是
SwT=c(mG - mB)T
这个公式和4.21式子是一样的

Logistic回归
将概率pi对数化变形成log(pi/(1-pi)) ,这样再进行回归分析。
这种方法和线性回归的分类结果差异非常小,因为log(p/1-p)的曲线与ap+b在p=0.5附近是很接近的,而p靠近0或这1时两种差别会很大,但现实情况往往p不会靠近0或者1

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics