事关4亿车主!定价规则调整,你的车险保费要降了?******
中新经纬1月13日电 (李自曼)近日,中国银保监会发布《关于扩大商业车险自主定价系数浮动范围等有关事项的通知》(下称《通知》),进一步扩大财险公司定价自主权,且明确各地因地制宜实施。
在受访业内人士看来,理论上车险保费最高可降价23%,但企业不会盲目降价。对保险公司来说,《通知》扩大了保险公司车险定价的自主权限,卡在原自主定价系数两端的业务或存发展机遇。
理论上车险保费最高可降价23%
大型险企的降价可能性或更高
《通知》第一部分内容主要是明确商业车险自主定价系数的浮动范围由[0.65,1.35]扩大到[0.5,1.5]。
据公安部最新统计,截至2022年9月底,全国机动车保有量达4.12亿辆。全国机动车驾驶人数量达4.99亿人,其中汽车驾驶人数量为4.61亿人。
东吴证券非银金融行业分析师葛玉翔团队认为,本次调整将使车险定价更加精细化,驾驶习惯良好的“好车主”保费会更低,“高风险车主”保费面临上升压力。
根据商业车险保费计算公式(商业车险保费=基准保费×NCD系数×自主定价系数)来算,理论上调整后车险保费价格最高可降价23%,最高可涨价11%。
作为计算车险保费的系数之一,自主定价系数越高,车险保费越高。目前,自主定价系数的影响因素包括车主的驾驶技术、驾驶习惯、驾龄等。
NCD系数指无赔款优待系数,即根据被保险人连续投保年限、出险次数,确定NCD系数值,从而影响车辆投保的费用。
保险公司是否会采取降价措施?中新经纬联系多家财险公司了解到,由于《通知》下发不久,各公司尚未制定出完整的相关政策,不便做出具体回应。
业内专家告诉中新经纬,《通知》下发后,保险公司可能会根据自己的综合情况降价。中小财险公司受车险综合改革等因素影响,综合成本率仍处于较高水平,降价的可能性会小于大型财险公司。目前,车主的出险数据是联网的,但由于各公司的定价策略不同,承保同一车主的同一辆车,保费会有差异。大型保险公司由于承保量大,会在一定程度上摊平定价风险。所以,部分选择在大型保险公司投保的风险较高的车辆,相比在中小公司投保,其车险保费并没有太高。
《通知》或对定价更细的公司更有利
卡在原自主定价系数两端的业务或存发展机遇
车险业务一直是多数财险公司重要业务板块。《通知》对财险公司将有哪些影响?
资深精算师徐昱琛对中新经纬表示,整体而言,《通知》中对于商车险自主定价系数的调整,对定价更精细的公司来说更加有利。一般而言,公司规模越大,定价能力会越好,其精算力量以及在定价方面的研究力量会更大,具有规模效应。
业内专家指出,除大型公司外,车企主机厂旗下的汽车保险公司或也能从此《通知》中受益。相比中小型财险公司,此类公司在数据和销售渠道都具有较大优势。不过,如何将优势转化到运营和定价方面,十分考验公司的整体经营能力。
关于《通知》对公司业务端的影响,徐昱琛表示,此次商业车险自主定价系数调整后,对财险公司的两类业务影响比较大。一类是原自主定价系数为0.65的业务,另一类是原自主定价系数为1.35的业务。针对本身风险数据较好、驾驶员驾驶行为良好的车辆,保险公司可将其定价系数可以打得更低,来增强客户黏性。针对高风险车辆,如营运车辆,保险公司可以通过提高自主定价系数来平衡风险,并为其提供承保机会。
中新经纬了解到,此前,对于高风险车辆,如摩托车、农用车、营运车、货车、皮卡车等,保险公司在承保时往往附加各种苛刻条件和繁琐程序。如摩托车在摩托车交强险保费测算时,保险公司需要根据摩托车车型、发动机排量来测算实际保费,并加收车船税。
徐昱琛认为,整体看来,各公司能否通过自主定价系数的调整来实现业务突破,还需进一步观察。
(文中观点仅供参考,不构成投资建议,投资有风险,入市需谨慎。)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |