平凡岗位平凡事,英雄出自小事中。
平凡岗位平凡事,普通人做事不普通。
平凡岗位平凡事,人小志高成大事。
平凡岗位平凡事,普通战士成雷锋。
平凡岗位平凡事,滴水也能汇成河。
平凡岗位平凡事,百姓团结天地动。
平凡岗位平凡事,日积月累土成山。
平凡岗位平凡事,一砖一瓦盖高楼。
平凡的是人们都是普通的农民,他们都是过得普通人的生活,他们吃的普通,穿着普通。不平凡的是他们为了过上好日子都拼了命的铆足了干劲,去冲破思想的牢笼。
《平凡的世界》所描绘的平凡,既包括了悲惨的贫穷、艰苦的劳作,也包含了普通人的平凡心态和日常生活。然而,这些平凡之中也蕴含着不平凡的价值观和奋斗精神。小说中的人物通过自身的努力和坚持,逐渐实现了自我价值的升华和追求生活幸福的愿望。
这种平凡中的不平凡,展现了人性的美好和光辉,彰显了人类的尊严和荣誉。
1.面对每一个平凡而简单的日子,不要失去对生活的热情,面度种种苦恼,不要抱怨人情世故的冷暖,生活就是一条正在延长的生命线,交织着欢乐和泪水。与希望同行,终究会有一天,你会发现自己的人生与众不同。
2.勤奋靠的是毅力,是永恒。文学家说,勤奋是打开文学殿堂之门的一把钥匙;科学家说,勤奋能使人聪明;而政治家说,勤奋是实现理想的基石;而平凡的人则说,勤奋是一种传统的美德。可见,勤奋富有了多么巨大的底蕴与魅力,人类如果丢弃了它,绝对不行。
3.多数人和我一样,平凡的家庭出身,不高的学历背景,普通的长相性格,好像是上天特别不照顾的。只有在遇见比我更加弱势更加不受照顾的人,我会知道能拥有健全的身体,能拥有追求幸福的能力,做一个普通人,过普通的生活多好。都说幸福是不能比较,需要用心感知,无论身处何处,保护好自己那颗心。
4.你是我生命中的宝藏,永远珍贵;你是我人生中的伴侣,永远唯一;你是我生活中的知音,永远贴心。爱你在平凡的日子里,却幸福在你我的心坎里,爱你永远,地老天荒!
5.在我们的一生中,顺境也好,逆境也罢,每个人都不可能一帆风顺,关键是要有一个良好的心态,坚信自己是最好的,以最强的毅力冲刺最完美的人生。用一颗感恩的心去感谢生活中的磨难,是它给了你磨练和坚持的机会,是它让你懂得了“不经历风雨难以见彩虹”,是坎坷造就了你独一无二的人生。
6.如果你不能成为大道,那就当一条小路何妨?如果你不能成为太阳,那就当一颗星星何妨?在平凡中做不平凡的自己,在平凡中造就精彩人生,站得高,看得远,世界在你心中,你的心有多大,世界就有多大,你就会走多远!
7.世界不止一扇门,当上帝为你关上所有的门时,它还会为你留下一扇窗。我不知道每个人的内心世界有多大,但我知道:“海阔凭鱼跃,天高任鸟飞”,我知道:“贵珠出于贱蚌”,我知道:“无压抑,生命便无飞跃”。我们成长的历史,便是心灵跋涉的历史,顺境时,宠辱不惊;逆境时,坦然面对,这何尝不是一种领悟?!
8.千万人的失败,都有是失败在做事不彻底,往往做到离成功只差一步就终止不做了。
9.不要自卑,你不比别人笨。不要自满,别人不比你笨。
10..多数人和我一样,平凡的家庭出身,不高的学历背景,普通的长相性格,好像是上天特别不照顾的。只有在遇见比我更加弱势更加不受照顾的人,我会知道能拥有健全的身体,能拥有追求幸福的能力,做一个普通人,过普通的生活多好。都说幸福是不能比较,需要用心感知,无论身处何处,保护好自己那颗心。
11.还记得苏格拉底和柏拉图的故事吗?苏格拉底的一个简单动作,成就了柏拉图的精彩人生,他成功了,成了伟大的哲学家。这就是平凡中的不平凡,简单中的不简单。
12.把一切平凡的事做好,即不平凡;把一切简单的事做对,即不简单;你发怒一分钟,便失去秒的幸福;快乐要懂得分享,才能加倍快乐。
13.目标再远大,终离不开信念去支撑。
14.生活,是酸甜苦辣的平凡;都说生命是一场旅行,一路上,我们会听见花开的声音,会看见花绽的容颜,也会看见花落花谢的惨景,如果我们能时时拥有温暖快乐的心情,拥有从容淡定的心境,一路经历着感悟着懂得着感恩着。
15.一个伟大的团队最重要的作用是让其平凡的队员创造出不平凡的业绩。
16.因碌碌而为而羞耻,因虚度年华而悔恨,这是我们每人抱定的精神。在我们有限的年华中,创造出不平凡的人生来。真心过好每一天,让每天都精彩。
17.遇到困难时不要抱怨,既然改变不了过去,那么就努力改变未来。
18.我是平凡,我活我的,潇洒自由,充满自信,我相信世界应该给我一个活出去的理由。芸芸众生里,我的平凡,哪怕是一粒微不足道的种子,我也会感到欣慰,值得我去珍惜。种子虽小,它会发芽,它会结果,它也会给人以收获,更会给予我启迪。
19.平凡的人,平凡的事,平凡的世界,处处透着不平凡,或是为了生存,或是为了理想,每个人都以自己的方式,在这条路上竭尽全力的前行着!
20.细节决定成败,过程决定结果;青春不言悔,爱拼才会赢;云程有路志为梯,平凡也会创奇迹;朵铿锵玫瑰,个血性男儿;时刻准备:超越梦想,铸就辉煌!
平凡英雄的定义在于他们在日常生活中展示了无私和勇气,他们的行为并不总是惊天动地,而是体现在日常生活的点点滴滴。以下是一个平凡英雄的平凡故事:
故事发生在一个小镇上。有一天,镇上的一位老人在散步时突然心脏病发作,倒在了路边。当时,周围的行人都在忙着自己的事情,没有人注意到老人的情况。
就在这时,一个名叫汤姆的年轻人刚好路过。他立刻跑到老人身边,迅速查看老人的情况。汤姆知道,心脏病发作的黄金抢救时间是在发病后的几分钟内。他毫不犹豫地采取了急救措施,包括给老人进行心肺复苏和使用自动体外除颤器。
汤姆在救援过程中,表现出了极大的耐心和关爱。尽管周围的行人对此表示担忧,认为汤姆的做法有风险,但汤姆坚持认为自己的行为是正确的。在汤姆的努力下,老人终于恢复了心跳和呼吸。
随后,汤姆拨打了急救电话,将老人送往了医院。经过及时的治疗,老人得以康复,并对汤姆的救命之恩表示感激。
这个故事中的汤姆,虽然只是一个普通人,但在关键时刻,他勇敢地站出来,拯救了一条生命。他的行为展示了平凡英雄的精神,那就是在关键时刻,敢于挺身而出,为他人献出自己的爱心和力量。
之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。
训练数据:
Day Outlook Temperature Humidity Wind PlayTennis
D1 Sunny Hot High Weak No
D2 Sunny Hot High Strong No
D3 Overcast Hot High Weak Yes
D4 Rain Mild High Weak Yes
D5 Rain Cool Normal Weak Yes
D6 Rain Cool Normal Strong No
D7 Overcast Cool Normal Strong Yes
D8 Sunny Mild High Weak No
D9 Sunny Cool Normal Weak Yes
D10 Rain Mild Normal Weak Yes
D11 Sunny Mild Normal Strong Yes
D12 Overcast Mild High Strong Yes
D13 Overcast Hot Normal Weak Yes
D14 Rain Mild High Strong No
检测数据:
sunny,hot,high,weak
结果:
Yes=》 0.007039
No=》 0.027418
于是使用Java代码调用Mahout的工具类实现分类。
基本思想:
1. 构造分类数据。
2. 使用Mahout工具类进行训练,得到训练模型。
3。将要检测数据转换成vector数据。
4. 分类器对vector数据进行分类。
接下来贴下我的代码实现=》
1. 构造分类数据:
在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。
数据文件格式,如D1文件内容: Sunny Hot High Weak
2. 使用Mahout工具类进行训练,得到训练模型。
3。将要检测数据转换成vector数据。
4. 分类器对vector数据进行分类。
这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》
package myTesting.bayes;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.util.ToolRunner;
import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;
import org.apache.mahout.text.SequenceFilesFromDirectory;
import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;
public class PlayTennis1 {
private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";
/*
* 测试代码
*/
public static void main(String[] args) {
//将训练数据转换成 vector数据
makeTrainVector();
//产生训练模型
makeModel(false);
//测试检测数据
BayesCheckData.printResult();
}
public static void makeCheckVector(){
//将测试数据转换成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"testinput";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失败!");
System.exit(1);
}
//将序列化文件转换成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件转换成向量失败!");
System.out.println(2);
}
}
public static void makeTrainVector(){
//将测试数据转换成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"input";
String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失败!");
System.exit(1);
}
//将序列化文件转换成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件转换成向量失败!");
System.out.println(2);
}
}
public static void makeModel(boolean completelyNB){
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";
String model = WORK_DIR+Path.SEPARATOR+"model";
String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";
Path in = new Path(input);
Path out = new Path(model);
Path label = new Path(labelindex);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean参数是,是否递归删除的意思
fs.delete(out, true);
}
if(fs.exists(label)){
//boolean参数是,是否递归删除的意思
fs.delete(label, true);
}
TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();
String[] params =null;
if(completelyNB){
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};
}else{
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};
}
ToolRunner.run(tnbj, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("生成训练模型失败!");
System.exit(3);
}
}
}
package myTesting.bayes;
import java.io.IOException;
import java.util.HashMap;
import java.util.Map;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.PathFilter;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.mahout.classifier.naivebayes.BayesUtils;
import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;
import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;
import org.apache.mahout.common.Pair;
import org.apache.mahout.common.iterator.sequencefile.PathType;
import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;
import org.apache.mahout.math.RandomAccessSparseVector;
import org.apache.mahout.math.Vector;
import org.apache.mahout.math.Vector.Element;
import org.apache.mahout.vectorizer.TFIDF;
import com.google.common.collect.ConcurrentHashMultiset;
import com.google.common.collect.Multiset;
public class BayesCheckData {
private static StandardNaiveBayesClassifier classifier;
private static Map<String, Integer> dictionary;
private static Map<Integer, Long> documentFrequency;
private static Map<Integer, String> labelIndex;
public void init(Configuration conf){
try {
String modelPath = "/zhoujianfeng/playtennis/model";
String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";
String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";
String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";
dictionary = readDictionnary(conf, new Path(dictionaryPath));
documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));
labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));
NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);
classifier = new StandardNaiveBayesClassifier(model);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("检测数据构造成vectors初始化时报错。。。。");
System.exit(4);
}
}
/**
* 加载字典文件,Key: TermValue; Value:TermID
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {
Map<String, Integer> dictionnary = new HashMap<String, Integer>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
String name = path.getName();
return name.startsWith("dictionary.file");
}
};
for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {
dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());
}
return dictionnary;
}
/**
* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {
Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
return path.getName().startsWith("part-r");
}
};
for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {
documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());
}
return documentFrequency;
}
public static String getCheckResult(){
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String classify = "NaN";
BayesCheckData cdv = new BayesCheckData();
cdv.init(conf);
System.out.println("init done...............");
Vector vector = new RandomAccessSparseVector(10000);
TFIDF tfidf = new TFIDF();
//sunny,hot,high,weak
Multiset<String> words = ConcurrentHashMultiset.create();
words.add("sunny",1);
words.add("hot",1);
words.add("high",1);
words.add("weak",1);
int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数
for (Multiset.Entry<String> entry : words.entrySet()) {
String word = entry.getElement();
int count = entry.getCount();
Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,
if (StringUtils.isEmpty(wordId.toString())){
continue;
}
if (documentFrequency.get(wordId) == null){
continue;
}
Long freq = documentFrequency.get(wordId);
double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);
vector.setQuick(wordId, tfIdfValue);
}
// 利用贝叶斯算法开始分类,并提取得分最好的分类label
Vector resultVector = classifier.classifyFull(vector);
double bestScore = -Double.MAX_VALUE;
int bestCategoryId = -1;
for(Element element: resultVector.all()) {
int categoryId = element.index();
double score = element.get();
System.out.println("categoryId:"+categoryId+" score:"+score);
if (score > bestScore) {
bestScore = score;
bestCategoryId = categoryId;
}
}
classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";
return classify;
}
public static void printResult(){
System.out.println("检测所属类别是:"+getCheckResult());
}
}
1. 请介绍一下WebGIS的概念和作用,以及在实际应用中的优势和挑战。
WebGIS是一种基于Web技术的地理信息系统,通过将地理数据和功能以可视化的方式呈现在Web浏览器中,实现地理空间数据的共享和分析。它可以用于地图浏览、空间查询、地理分析等多种应用场景。WebGIS的优势包括易于访问、跨平台、实时更新、可定制性强等,但也面临着数据安全性、性能优化、用户体验等挑战。
2. 请谈谈您在WebGIS开发方面的经验和技能。
我在WebGIS开发方面有丰富的经验和技能。我熟悉常用的WebGIS开发框架和工具,如ArcGIS API for JavaScript、Leaflet、OpenLayers等。我能够使用HTML、CSS和JavaScript等前端技术进行地图展示和交互设计,并能够使用后端技术如Python、Java等进行地理数据处理和分析。我还具备数据库管理和地理空间数据建模的能力,能够设计和优化WebGIS系统的架构。
3. 请描述一下您在以往项目中使用WebGIS解决的具体问题和取得的成果。
在以往的项目中,我使用WebGIS解决了许多具体问题并取得了显著的成果。例如,在一次城市规划项目中,我开发了一个基于WebGIS的交通流量分析系统,帮助规划师们评估不同交通方案的效果。另外,在一次环境监测项目中,我使用WebGIS技术实现了实时的空气质量监测和预警系统,提供了准确的空气质量数据和可视化的分析结果,帮助政府和公众做出相应的决策。
4. 请谈谈您对WebGIS未来发展的看法和期望。
我认为WebGIS在未来会继续发展壮大。随着云计算、大数据和人工智能等技术的不断进步,WebGIS将能够处理更大规模的地理数据、提供更丰富的地理分析功能,并与其他领域的技术进行深度融合。我期望未来的WebGIS能够更加智能化、个性化,为用户提供更好的地理信息服务,助力各行各业的决策和发展。
这块您需要了解下stm32等单片机的基本编程和简单的硬件设计,最好能够了解模电和数电相关的知识更好,还有能够会做操作系统,简单的有ucos,freeRTOS等等。最好能够使用PCB画图软件以及keil4等软件。希望对您能够有用。
1.负责区域大客户/行业客户管理系统销售拓展工作,并完成销售流程;
2.维护关键客户关系,与客户决策者保持良好的沟通;
3.管理并带领团队完成完成年度销售任务。
你好,面试题类型有很多,以下是一些常见的类型:
1. 技术面试题:考察候选人技术能力和经验。
2. 行为面试题:考察候选人在过去的工作或生活中的行为表现,以预测其未来的表现。
3. 情境面试题:考察候选人在未知情境下的决策能力和解决问题的能力。
4. 案例面试题:考察候选人解决实际问题的能力,模拟真实工作场景。
5. 逻辑推理题:考察候选人的逻辑思维能力和分析能力。
6. 开放性面试题:考察候选人的个性、价值观以及沟通能力。
7. 挑战性面试题:考察候选人的应变能力和创造力,通常是一些非常具有挑战性的问题。