采购专管员职责?

时间:2025-02-03 01:44 人气:0 编辑:招聘街

一、采购专管员职责?

1.负责督导和审核本乡镇政府采购预算的编制、调整及执行情况。

2. 负责政府采购法律、法规和各项规章制度的宣传、贯彻落实,开展监督检查。对本乡镇执行情况进行调查研究,提出合理化建议,拟定相应的配套措施和管理办法。

3.负责与局政府采购管理科的信息沟通,办理本乡镇政府采购事项及相关资料的报送。

4.指导、协调和监督管理本乡镇政府采购活动。参与县政府采购中心或有政府采购资质的社会代理机构组织的涉及本乡镇重大项目采购活动的现场监督工作。

5.做好本乡镇政府采购项目的验收监管工作。依据《宝应县政府采购货物合同履约及验收管理暂行规定》做好采购项目的验收监管工作。

6.负责采购资金支付的审核监督工作,严格执行采购资金直接支付制度。

二、专管员怎么考?

专管员一般是公务员,因为需要执法证的。 公务员凡进必考绝大多数岗位,满足本科学历即可报考,研究生可报考本科及以上要求的岗位,需要注意有的岗位标注最高学历与报考岗位一致。

三、税务专管员沟通技巧视频

税务专管员沟通技巧视频:提升沟通能力的实用指南

作为税务专管员,掌握良好的沟通技巧是非常重要的。税务工作涉及到与客户、同事以及上级的频繁沟通,有效的沟通能力可以帮助我们更好地理解和满足他人的需求,解决问题并建立良好的合作关系。在这篇文章中,我们将分享一些提升沟通能力的实用技巧,并推荐一些值得观看的税务专管员沟通技巧视频。

1. 倾听和理解

沟通的第一步是倾听和理解。在与客户或同事进行交流时,要保持专注,注意听取对方的观点和需求。倾听是一种尊重他人的表达方式,也是理解他们真正意图的关键。通过积极倾听,我们可以更好地把握对方的需求,提供准确的服务和建议。

为了提高倾听和理解的能力,我们可以:

  • 用眼神和肢体语言展示出对对方的关注
  • 避免打断对方,在对方发言结束后再进行回应
  • 重述对方的观点,以确保自己对其有深入理解

2. 清晰表达

清晰的表达是沟通的关键。作为税务专管员,我们需要把复杂的税务概念和法规以简洁明了的方式传达给客户或同事。以下是一些提高清晰表达能力的技巧:

  • 使用简单明了的语言,避免使用过多的术语和行业名词
  • 组织思路,按照清晰的结构进行陈述,避免跑题和冗长的叙述
  • 利用合适的图表或示意图帮助说明复杂的概念

3. 善于反馈和解决问题

在工作中,难免会出现问题和挑战。作为税务专管员,我们需要善于反馈,并与他人一起解决问题。以下是一些建立良好反馈和解决问题能力的方法:

  • 提供及时和具体的反馈,指明问题所在并给出解决方法
  • 与他人合作,共同寻找解决方案
  • 建立有效的问题解决流程,以便及时处理和跟踪问题

4. 积极主动

积极主动是在税务工作中非常重要的一种能力。积极主动对我们个人的发展和团队的成功都有着积极的影响。以下是一些积极主动的行动步骤:

  • 主动了解和学习税务法规和最新的政策变化
  • 主动参与团队活动和项目,提供帮助和支持
  • 提出建设性的意见和改进建议

推荐税务专管员沟通技巧视频

除了以上的一些实用技巧,还有一些优质的税务专管员沟通技巧视频可以帮助你更深入地了解和学习。以下是我们推荐的几个视频:

在这个视频中,税务专家会分享他们在与客户沟通过程中遇到的挑战,并提供解决问题的实用技巧。

这个视频将帮助你了解如何在税务团队中建立积极的沟通氛围,促进团队合作和成长。

在这个视频中,你将学习到如何利用身体语言和非语言信号更加有效地与他人进行沟通。

这些税务专管员沟通技巧视频将为你提供宝贵的指导和实践经验,帮助你成为一名更出色的税务专管员。

无论你是刚入行的新人,还是有经验的老手,掌握良好的沟通技巧都是非常重要的。它不仅可以提升你在税务职场上的表现,还能够为你的个人发展和职业晋升打下坚实的基础。希望本篇文章和推荐的税务专管员沟通技巧视频能够帮助到你,祝你在税务工作中取得更多的成功!

四、怎么查税务专管员?

  在网上是查询不到自己公司专管员的;  查询自己公司的税务专管员,方法有二种:  方法1、提供纳税人编码和纳税人名称,直接拨打我市地税咨询热线(XXX)12366(XXX代表自己当地的区号),由工作人员为作出相应的指引查询;  方法2、可以持公司的税务登记证副本,到税务办税柜台咨询,税务系统可以查询到所属区所及管理员。 

五、社保专管员变更步骤?

天津社保专员变更可以在网上申请,通过UK客户端办理。

六、道路专管员工作职责?

(1)主持路政稽查大队日常工作。

(2)宣传贯彻执行公路管理法律、法规、规章及有关政策规定。

(3)负责辖区内路政执法工作,制定工作计划、目标、措施。

(4)负责受理制止、查处非法侵占、污染、损坏、破坏公路、公路用地和公路设施等违法行为。

(5)负责管辖公路路政许可事项的审报、审查工作。

(6)负责组织实施辖区内公路两侧建筑控制区的管理。

(7)参加新修、改建公路路产验收交接工作。

(8)负责组织、指导、监督、检查、

七、税务专管员怎么称呼?

税务专管员一般年纪都比较大,可以叫某某老师,既可让他们觉得受到了尊重,遇到问题请教时也比较方便

八、给专管员送什?

我昨天刚给专管员送过去,是苏宁电器的代金卡,因为税务机关工作性质的原因,大件物品不方便送,东西太大人家不方便收,而且不知道人家喜好送过去也不好,现在送现金有的人是不收的,所以越来越多的企业都选择大型超市的购物卡,因附近就有沃尔玛和家乐福所以好多企业都是这些超市的购物券,所以最后我们想了下,送超市购物卡的人太多就送的苏宁的卡。

九、报税时被问到专管员是谁.其实专管员是指什么?

专管你们企业的税管员,通常对你们企业的情况了解较多,你们也应多和专管员沟通,有什么政策法规什么的他也会及时和你们沟通 专管员,就是在税务方面监督管理你们单位的税收管理员,即使你们单位在税务方面已经走上正轨,平时没什么大事,也要适当花点小钱和专管员处理好关系,到年底也不止于抽查你,有什么小道消息还可以提前通知你。

十、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38