推动儿童健康服务下沉社区******
本报记者 孙颖
构建首都基础教育良好生态,推动儿童健康服务下沉社区,建立“三位一体”心理健康服务网络……从教育到医疗,再到心理健康,孩子们的健康成长一直是市政协委员们关注的话题。在市政协十四届一次会议上,委员们纷纷建言献策,让祖国的花朵健康绽放。
让教师交流轮岗“活”起来
“双减”背景下,如何构建基础教育良好生态?民进北京市委提交党派提案,建议健全中小学教师交流轮岗考评机制和激励机制,推进“区管校聘”管理改革,让中小学教师交流轮岗“活”起来。
“完善顶层设计,构建有力的协同推进机制,明确义务教育教师定期参加交流轮岗的义务,并对交流轮岗的对象、年限、程序、待遇等做出全面规范。”民进北京市委相关负责人介绍,教育行政部门应充分发挥宏观规划协调的职能,统筹学区、集团、学校和教科研部门参与教师交流轮岗工作,如推进“区管校聘”管理改革,进一步明确教育部门与编制、人社等部门的权责,强化部门之间的横向协同。
“我们还建议,不断完善教师交流轮岗大数据管理平台,实现交流轮岗供需全面统筹、精准调配,健全考评机制和激励机制,创新交流形式,实施多元化交流,灵活运用全职与兼职两种形式。”民进北京市委相关负责人介绍,比如城区之间学校的交流轮岗,可通过兼职方式有选择地实施较长期限的交流轮岗,统筹开展“双师”直播课堂、同步课堂等线上线下相结合的教师交流,突破交流轮岗时空限制,促进普通学校转型升级。
推动儿童健康服务下沉社区
“许多婴幼儿疾病,如果能早期发现并及时有效干预,预后效果会很好。而早发现,儿童保健医生是关键一环。”来自九三学社界的市政协委员、北京大学神经科学研究所研究员伊鸣建议,推动0至6岁儿童健康服务下沉社区,提高儿童生命质量。
伊鸣说,对于0至6岁儿童开展健康管理是国家基本公共卫生服务项目的重要组成部分,如满月体格检查和发育评估、婴幼儿体格检查和疫苗接种等服务。但是许多儿童在基层医疗机构只能接受最基本最简单的体检服务,一些国家要求新增的服务项目,如眼部和视力检查等,并未得到切实开展。
如何让公共卫生服务在儿童健康管理服务更有实效?伊鸣建议,要严格落实儿童保健医生在基层医疗卫生机构的数量要求和比例要求,确保能够充分满足临床诊疗及预防保健需求。要加强儿童保健人员知识培训,需制定一套标准化与个性化相结合教案,确保儿童保健医生熟练掌握儿童常规适宜技术。
构建“三位一体”心理健康服务网
近年来青少年心理健康问题日趋引人关注。来自民建界的市政协委员、丰台区人大常委会副主任张婕建议,构建家庭、学校、专业机构“三位一体”心理健康服务网络。
“全国妇联儿童工作部的调查数据显示,‘不知道用什么方法教育孩子’排在家长对家庭教育指导服务需求的第一位。”张婕说,学校心理教育有优势,也有不足,在碰到复杂的学生心理问题时显得无能为力,专业心理机构虽然有专业上的优势,但存在难以进校园、难以得到家长认可的情况。
“要将教师、学生心理健康筛查纳入卫健委、教委日常工作,设定相应指标,与青少年肥胖率、近视眼率一并纳入学生健康指标进行考核。”张婕建议,建立心理咨询资源库,统筹中小学与专业心理咨询、治疗机构沟通机制,及时传递双方需要的信息,提高学校心理教育的水平以及专业心理机构咨询与治疗的效果。要对专业心理咨询机构进入校园出台鼓励措施,家庭、学校、专业机构一同帮助学生改善心理健康状态。
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。