答:卫生健康局也是有行政处罚权的;
卫生健康局行政处罚 条例中规定:有下列行为之一的,由县级以上人民政府卫生行政部门给予警告或者责令暂停六个月以上一年以下执业活动;情节严重的,吊销其执业证书;构成犯罪的,依法追究刑事责任:
(一)违反卫生行政规章制度或者技术操作规范,造成严重后果的;”
(二)由于不负责任延误急危患者的抢救和诊治,造成严重后果的;”
(三)造成医疗责任事故的;”
(四)未经亲自诊查、调查,签署诊断、治疗、流行病学等证明文件或者有关出生、死亡等证明文件的;”
(五)隐匿、伪造或者擅自销毁医学文书及有关资料的;”
(六)使用未经批准使用的药品、消毒药剂和医疗器械的;”
(七)不按照规定使用麻醉药品、医疗用毒性药品、精神药品和放射性药品的;”
(八)未经患者或者其家属同意,对患者进行实验性临床医疗的;”
(九)泄露患者隐私,造成严重后果的;”
(十)利用职务之便,索取、非法收受患者财物或者牟取其他不正当利益的;”
(十一)发生自然灾害、传染病流行、突发重大伤亡事故以及其他严重威胁人民生命健康的紧急情况时,不服从卫生行政部门调遣的
(十二)发生医疗事故或者发现传染病疫情,患者涉嫌伤害事件或者非正常死亡,不按照规定报告的。”
卫生健康综合行政执法大队是隶属县卫生健康委员会管理的副科级公益一类事业单位。
一、主要职责
(一)依法开展医疗卫生机构监督执法,打击非法行医和非法采供血行为,规范医疗服务秩序。
(二)依法开展公共场所卫生、学校卫生、生活饮用水卫生、职业卫生、放射卫生监督执法。
(三)依法开展消毒产品、餐饮具集中消毒单位监督执法。
(四)依法开展妇幼保健计划生育服务监督执法,打击非医学需要的胎儿性别鉴定和非医学需要选择性别的人工终止妊娠行为。
(五)依法开展中医医疗服务监督执法。
(六)依法开展传染病防治监督执法。承担国家食品安全标准跟踪评价。
(一)生活饮用水卫生监督检查。
1、适用范围:辖区内集中式供水单位、二次供水单位、学校自备水单位、农村集中式供水单位。
2、职责:日常性卫生监督、饮用水污染事故对人体健康影响的调查处理、行政处罚。
3、执法依据:《中华人民共和国传染病防治法》、《生活饮用水卫生监督管理办法》、《生活饮用水卫生标准》等。
(二)学校卫生监督检查。
1、适用范围:辖区内各级各类学校;
2、主要职责:日常性卫生监督、桌椅等学生用品卫生监督。
3、执法依据:《中华人民共和国传染病防治法》、《学校卫生管理条例》。
(三)学校、幼儿园传染病防治卫生监督检查。
1、适用范围:辖区内各级各类学校、幼儿园;
2、主要职责:日常性卫生监督、传染病疫情的调查和处理; 3、执法依据:《中华人民共和国传染病防治法》、《突发公共卫生事件与传染病疫情监测信息报告管理办法》、《学校和托幼机构传染病疫情报告工作规范》等。
(四)公共场所卫生监督检查。
1、适用范围:
(1)宾馆、旅店、招待所、车马店。
(2)公共浴室、理发店、美容店;
(3)影剧院、录像厅(室)、游艺厅(室)、舞厅、音乐厅;
(4)体育场(馆)、游泳场(馆)、公园;
(5)展览馆、博物馆、美术馆、图书馆;
(6)商场(店)、书店;
(7)候诊室、候车(机、船)室、公共交通工具。
2、主要职责:辖区内公共场所卫生行政许可、日常监督和违法行为查处的工作;对公共场所进行卫生监测和卫生技术指导;监督从业人员健康检查,指导有关部门对从业人员进行卫生知识的教育和培训;对新建、扩建、改建的公共场所的选址和设计进行卫生审查,并参加竣工验收。
3、执法依据:《公共场所卫生管理条例》、《公共场所卫生管理条例实施细则》等。
(五)对医疗机构、采供血机构、母婴保健技术服务机构、疾病预防控制机构和蒙中医药机构执业人员的执业活动及传染病防治进行检查,查处违法行为。
1、适用范围:辖区内医疗机构、采供血机构、母婴保健技术服务机构、疾病预防控制机构和蒙中医药机构。
2、工作职责:对医疗机构、采供血机构、母婴保健技术服务机构、疾病预防控制机构和蒙中医药机构及其执业人员的执业活动进行检查,查处违法行为;对医疗机构、采供血机构、母婴保健技术服务机构、疾病预防控制机构和蒙中医药机构的传染病疫情报告、疫情控制措施、消毒隔离制度执行情况、医疗废弃物处置情况和菌(毒)种管理情况、疫苗接种等进行日常监督检查,查处违法行为;受理违法行为和事件的投诉、举报和查处工作;依法打击“两非”(非医学需要的胎儿性别鉴定和非医学需要的人工终止妊娠行为)行为,对违法违纪案件查处。
3、执法依据:《中华人民共和国传染病防治法》、《中华人民共和国基本医疗和健康促进法》、《中华人民共和国执业医师法》、《中华人民共和国母婴保健法》、《中华人民共和国献血法》《医疗废物管理条例》、《疫苗流通和预防接种管理条例》和《医疗机构管理条例》等
(六)职业卫生监督检查。
1、适应范围:辖区内职业病防治活动。
2、主要职责:查阅或者复制单位和个人与违反职业病防治法律、法规的行为有关的资料和采集样品;责令违反职业病防治法律、法规的单位和个人停止违法行为;对职业病防治工作进行监督检查;责令暂停导致职业病危害事故的作业;封存造成职业病危害事故或者可能导致职业病危害事故发生的材料和设备;组织控制职业病危害事故现场。
3.执法依据:《中华人民共和国职业病防治法》、《用人单位职业健康监护监督管理办法》、《工作场所职业卫生监督管理规定》、《职业病危害项目申报办法》和《建设项目职业卫生“三同时”监督管理暂行办法》等。
(七)餐具、饮具集中消毒服务单位卫生监督检查。
1.适应范围:辖区内餐具、饮具集中消毒服务单位
2.主要职责:对餐具、饮具集中消毒服务单位的监督检查、对餐具、饮具集中消毒服务单位违反《 中华人民共和国食品安全法》进行查处。
3.执法依据:《 中华人民共和国食品安全法》、《餐具、饮具集中消毒服务单位卫生监督工作规范》
(八)消毒产品的经营、使用单位卫生监督检查。
1.适应范围:辖区内消毒产品的经营、使用单位
2.主要职责:负责辖区内消毒产品监督检查;负责开展辖区内消毒产品违法案件的查处。
3.执法依据:《 中华人民共和国传染病防治法》、《 消毒管理办法》和《消毒产品卫生监督工作规范》。
(九)完成区委、区政府交办的其他任务。
一般会先约谈。
职业健康监管人员指出了近期检查中发现的主要职业健康问题包括职业卫生管理组织和制度不健全、职业病危害项目申报不及时、工作场所职业病危害因素未定期检测、劳动者未进行职业健康检查、职业病危害警示标识设置不全和个人防护用品配备不全等,对企业存在问题应承担的法律责任进行了说明,
同时指导企业制定切实可行的整改方案,要求企业务必高度重视职业健康管理工作,迅速落实整改措施,切实保障劳动者身体健康。
通过约谈,参会负责人表示将高度重视职业健康工作,对执法人员检查中发现的问题立即整改到位。下一步,市卫生健康综合执法大队将继续加大辖区内企业职业健康工作监督检查力度,对发现问题进行行政处罚。
不需要找任何执法大队,办理健康证只需要带上本人身份证,去卫生局指定的医院免费办理,医院有专的健康证办理窗口,早晨空腹凭身份证领取体检表,检查大便,血常规,胸透三个项目,五个工作日后,带身份证和体检表去发放窗口查询,合格就能拿到健康证。
网络执法通常通过监控、调查和打击违法行为来维护网络秩序和安全。执法部门会利用技术手段对网络进行跟踪和监视,收集证据并对违法行为进行调查。一旦发现违法行为,执法部门会采取相应的行动,比如对违法人员进行逮捕、起诉或罚款。此外,执法部门还会加强对网络安全的监督,防范网络犯罪活动。总之,网络执法需要高度的技术和专业知识,以及法律的支持和合作来维护网络秩序和社会安全。
随着现代社会的不断发展和进步,心理健康教育越来越受到人们的关注。作为一名心理健康教师,无论是在学校还是在社会上,都承担着重要的任务和责任。面对面试的机会,我们必须充分准备,以展现出我们的专业知识和才能。
面试题目
在准备心理健康教师面试时,我们需要关注一些常见的面试题目。这些问题帮助面试官了解我们的专业背景和能力,同时也是对我们面试准备的一种考验。以下是一些常见的心理健康教师面试题目:
- 1. 请介绍一下您的个人背景和学术经历。
- 2. 您是如何理解心理健康教育的?
- 3. 您在心理健康教育方面有哪些独特的见解和观点?
- 4. 如何应对学生在心理健康方面的问题和挑战?
- 5. 请分享一次您成功帮助学生解决心理健康问题的经历。
- 6. 您对心理健康教育中的课程开发有何想法?
- 7. 您在解决团队合作中的冲突方面有何经验?
- 8. 您对心理健康教育未来的发展有何预期?
如何回答面试题目
在回答心理健康教师面试题目时,我们应该展现出自己的专业知识、经验和才能。下面是一些建议,帮助我们回答这些面试题目:
- 1. 请介绍一下您的个人背景和学术经历。
我们可以从自己的教育背景、工作经验和参与的项目中介绍自己。特别强调与心理健康教育相关的经历,例如参与学生心理咨询、组织心理健康教育讲座等。
- 2. 您是如何理解心理健康教育的?
我们可以强调心理健康教育的定义,即通过教育手段提升学生的心理健康水平。同时,我们还可以分享我们对于心理健康教育的重要性和影响的理解。
- 3. 您在心理健康教育方面有哪些独特的见解和观点?
我们可以分享自己对于心理健康教育的研究成果、实践经验或者专业观点。重点突出自己的创新性和对于心理健康教育的深入思考。
- 4. 如何应对学生在心理健康方面的问题和挑战?
我们可以强调个案思考和系统化方法,例如与学生进行个别心理咨询、组织心理健康工作坊等。同时,我们还可以提到与家长、教师和学校合作的重要性。
- 5. 请分享一次您成功帮助学生解决心理健康问题的经历。
我们可以具体描述一次成功的案例,并强调我们在这个过程中的角色和贡献。着重表达自己的洞察力、专业知识和与学生之间的良好沟通。
- 6. 您对心理健康教育中的课程开发有何想法?
我们可以提到个人对于课程开发的经验和理解。重点强调学生的参与性、案例教学和实践性的要求。
- 7. 您在解决团队合作中的冲突方面有何经验?
我们可以分享自己在团队合作中处理冲突的经验。重点强调积极沟通、倾听他人观点、寻求共识的重要性。
- 8. 您对心理健康教育未来的发展有何预期?
我们可以提到心理健康教育在未来的重要性和发展趋势。重点关注社会需求的变化、科技的应用和教育政策的支持。
总结
心理健康教师面试是一个展示我们专业能力和知识的机会。通过充分准备,回答面试题目时可以突出自己的优势和独特性。相信通过良好的准备和自信的表现,我们一定能够成功地通过心理健康教师面试,为学生的心理健康教育做出贡献。
答:
1. 是的,卫生健康综合执法大队退休属企业待遇。
2. 原因是卫生健康综合执法大队是属于国家机关的一种特殊编制,其工作性质与企业不同,但是在退休待遇上,卫生健康综合执法大队的退休人员享有与企业退休人员相同的待遇。
这是因为国家对于退休人员的待遇是有一定的规定和保障的,无论是企业还是国家机关,都应该按照规定给予退休人员应有的待遇。
3. 如果您是卫生健康综合执法大队的退休人员,想要了解自己的退休待遇,可以按照以下步骤进行操作:
- 首先,查看自己的退休证明或者相关的工作证明,确认自己的退休身份和待遇;
- 其次,可以咨询所在单位的人事部门或者退休管理部门,了解自己的具体待遇标准和发放方式;
- 最后,如果有任何疑问或者不满意的地方,可以向相关部门提出申诉或者投诉,维护自己的合法权益。
作为执法人员。应该积极的认真的学习国家的法律法规。并且积极的做到文明执法。坚决不越权执法或者是暴力执法的违法执法行为。并且在执法的时候要依法依规的按照国家的法律法规。绝对要做到公平公正的执法,绝对不能选择性的执法。并且执法的时候一定要向被执法人出示执法证。并且说明自己所在的执法单位和此次前来执行的法律任务。
之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。
训练数据:
Day Outlook Temperature Humidity Wind PlayTennis
D1 Sunny Hot High Weak No
D2 Sunny Hot High Strong No
D3 Overcast Hot High Weak Yes
D4 Rain Mild High Weak Yes
D5 Rain Cool Normal Weak Yes
D6 Rain Cool Normal Strong No
D7 Overcast Cool Normal Strong Yes
D8 Sunny Mild High Weak No
D9 Sunny Cool Normal Weak Yes
D10 Rain Mild Normal Weak Yes
D11 Sunny Mild Normal Strong Yes
D12 Overcast Mild High Strong Yes
D13 Overcast Hot Normal Weak Yes
D14 Rain Mild High Strong No
检测数据:
sunny,hot,high,weak
结果:
Yes=》 0.007039
No=》 0.027418
于是使用Java代码调用Mahout的工具类实现分类。
基本思想:
1. 构造分类数据。
2. 使用Mahout工具类进行训练,得到训练模型。
3。将要检测数据转换成vector数据。
4. 分类器对vector数据进行分类。
接下来贴下我的代码实现=》
1. 构造分类数据:
在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。
数据文件格式,如D1文件内容: Sunny Hot High Weak
2. 使用Mahout工具类进行训练,得到训练模型。
3。将要检测数据转换成vector数据。
4. 分类器对vector数据进行分类。
这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》
package myTesting.bayes;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.util.ToolRunner;
import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;
import org.apache.mahout.text.SequenceFilesFromDirectory;
import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;
public class PlayTennis1 {
private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";
/*
* 测试代码
*/
public static void main(String[] args) {
//将训练数据转换成 vector数据
makeTrainVector();
//产生训练模型
makeModel(false);
//测试检测数据
BayesCheckData.printResult();
}
public static void makeCheckVector(){
//将测试数据转换成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"testinput";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失败!");
System.exit(1);
}
//将序列化文件转换成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件转换成向量失败!");
System.out.println(2);
}
}
public static void makeTrainVector(){
//将测试数据转换成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"input";
String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失败!");
System.exit(1);
}
//将序列化文件转换成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件转换成向量失败!");
System.out.println(2);
}
}
public static void makeModel(boolean completelyNB){
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";
String model = WORK_DIR+Path.SEPARATOR+"model";
String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";
Path in = new Path(input);
Path out = new Path(model);
Path label = new Path(labelindex);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
if(fs.exists(label)){
//boolean参数是,是否递归删除的意思
fs.delete(label, true);
}
TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();
String[] params =null;
if(completelyNB){
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};
}else{
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};
}
ToolRunner.run(tnbj, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("生成训练模型失败!");
System.exit(3);
}
}
}
package myTesting.bayes;
import java.io.IOException;
import java.util.HashMap;
import java.util.Map;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.PathFilter;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.mahout.classifier.naivebayes.BayesUtils;
import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;
import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;
import org.apache.mahout.common.Pair;
import org.apache.mahout.common.iterator.sequencefile.PathType;
import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;
import org.apache.mahout.math.RandomAccessSparseVector;
import org.apache.mahout.math.Vector;
import org.apache.mahout.math.Vector.Element;
import org.apache.mahout.vectorizer.TFIDF;
import com.google.common.collect.ConcurrentHashMultiset;
import com.google.common.collect.Multiset;
public class BayesCheckData {
private static StandardNaiveBayesClassifier classifier;
private static Map<String, Integer> dictionary;
private static Map<Integer, Long> documentFrequency;
private static Map<Integer, String> labelIndex;
public void init(Configuration conf){
try {
String modelPath = "/zhoujianfeng/playtennis/model";
String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";
String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";
String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";
dictionary = readDictionnary(conf, new Path(dictionaryPath));
documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));
labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));
NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);
classifier = new StandardNaiveBayesClassifier(model);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("检测数据构造成vectors初始化时报错。。。。");
System.exit(4);
}
}
/**
* 加载字典文件,Key: TermValue; Value:TermID
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {
Map<String, Integer> dictionnary = new HashMap<String, Integer>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
String name = path.getName();
return name.startsWith("dictionary.file");
}
};
for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {
dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());
}
return dictionnary;
}
/**
* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {
Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
return path.getName().startsWith("part-r");
}
};
for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {
documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());
}
return documentFrequency;
}
public static String getCheckResult(){
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String classify = "NaN";
BayesCheckData cdv = new BayesCheckData();
cdv.init(conf);
System.out.println("init done...............");
Vector vector = new RandomAccessSparseVector(10000);
TFIDF tfidf = new TFIDF();
//sunny,hot,high,weak
Multiset<String> words = ConcurrentHashMultiset.create();
words.add("sunny",1);
words.add("hot",1);
words.add("high",1);
words.add("weak",1);
int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数
for (Multiset.Entry<String> entry : words.entrySet()) {
String word = entry.getElement();
int count = entry.getCount();
Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,
if (StringUtils.isEmpty(wordId.toString())){
continue;
}
if (documentFrequency.get(wordId) == null){
continue;
}
Long freq = documentFrequency.get(wordId);
double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);
vector.setQuick(wordId, tfIdfValue);
}
// 利用贝叶斯算法开始分类,并提取得分最好的分类label
Vector resultVector = classifier.classifyFull(vector);
double bestScore = -Double.MAX_VALUE;
int bestCategoryId = -1;
for(Element element: resultVector.all()) {
int categoryId = element.index();
double score = element.get();
System.out.println("categoryId:"+categoryId+" score:"+score);
if (score > bestScore) {
bestScore = score;
bestCategoryId = categoryId;
}
}
classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";
return classify;
}
public static void printResult(){
System.out.println("检测所属类别是:"+getCheckResult());
}
}