登鹳雀楼节选唐畅讲解?

时间:2024-12-27 07:02 人气:0 编辑:招聘街

一、登鹳雀楼节选唐畅讲解?

鹳雀楼高高的在飞鸟之上,远离尘世间。

在上面能看到天空笼罩着平坦的原野,江河流入峻峭的高山。

注释

唐代河中府名胜,因经常有鹳雀栖息,故得名,后被河水冲没。

迥临:高高的在上面。迥:常作远或独自的样子解释,此处应描写高远。

世尘:尘世。

平野:平坦开阔的原野。晁错《言兵事书》:平原广野,此车骑之地,步兵十不当一。

断山:陡峭的高山。杜甫《远游》:云长出断山。

城楼多峻极,列酌恣登攀。

迥临飞鸟上,高出世人间。

天势围平野,河流入断山。

今年菊花事,并是送君还。

 

【作品鉴赏】

《登鹳雀楼》描写与友人畅饮登楼,站在鹳雀楼上远望的情景,表达了诗人开阔的胸襟和奔放的激情及殷殷惜别之情

天然形势似乎要以连绵的群山围住平原田野,“围”字,形象地写出了山峦起伏,连绵不断的地理形貌;而奔腾浩荡的黄河却把横亘在前的山脉拦腰斩断,奔流而去,“断”字传神地表现出黄河一泻千里,任何崇山峻岭,都无可阻挡的巨大力量。 第一、二联写和朋友畅饮登楼,诗人站在鹳雀楼上,望远空飞鸟仿佛低在楼下,觉得自己高瞻远瞩,眼界超出了人世尘俗,流露出诗人畅快心情和清高、俊逸的情怀;第三联写四围景象,天然形势似乎要以连绵山峦围住平原田野,但奔腾咆哮的黄河却使山脉中开,流入断山,浩荡奔去,可见诗人开阔的胸襟和奔放的激情;尾联点名明此番登临也在于送别朋友归去,流露出殷殷惜别之情。

二、唐鉴军和毕畅是夫妻不?

唐鉴军和毕畅不是夫妻,无论是在剧中还是现实中都不是夫妻,唐鉴军原名唐广君,出生于吉林省舒兰市,曾任辽宁民间艺术团团长,辽宁省曲艺家协会理事,中国内地男演员、二人转演员。2001年8月,在首届“赵本山杯二人转大赛”中荣获金奖。2002年和2003年,分别在电视连续剧《刘老根1》和《刘老根2》中扮演“徐迈”。

三、唐恬给周笔畅写的歌?

是歌曲《笔记》。

《笔记》是周笔畅演唱的歌曲,该歌曲由黄友祯作曲,唐恬和黄友祯作词。该歌曲收录于2005年超级女声《终极PK》合集,后被收录于由人民音乐出版社编辑的第一部《流行音乐》教材中。

《笔记》作为周笔畅出道后的第一首个人作品,唐恬表示在筹备这张《终极PK》的合辑时,许多超级女声对人生中的第一首单曲都倾向以爱情为主旋律,而周笔畅却要选择一首唱给妈妈的歌,表达对妈妈的感谢。

四、体验渔唐,畅享精品民宿之旅

渔唐:一个迷人的海滨小镇

渔唐位于中国的东海沿岸,被誉为一个迷人的海滨小镇。这个小镇宛如一颗珍珠,被蓝色的海水环绕,青山绿水之间,散发着独特的魅力。

渔唐的风景如画,拥有绵延的沙滩、清澈的海水和蔚蓝的天空。这里还有丰富的海洋资源,渔民们在这片海域上捕鱼,为小镇带来了新鲜的海鲜。除了美丽的自然风景,渔唐还有丰富的人文历史,可以感受到浓厚的渔村文化氛围。

精品民宿:渔唐的瑰宝

在渔唐的迷人风景中,藏着一些精品民宿,它们成为了旅客们的首选居住地。这些民宿以其舒适、独特和注重细节的设计而闻名。无论是传统的渔村风格还是现代简约风格,这些民宿都能满足不同旅客的需求。

精品民宿的主人们在设计和经营的过程中注重细节,追求独特和个性化。他们为旅客提供了舒适的客房、独立的卫生间和各种便利设施。旅客可以在这里体验浓厚的当地文化,品尝新鲜的海鲜美食,感受到渔村生活的悠闲和宁静。

渔唐精品民宿的特色服务

渔唐的精品民宿不仅提供舒适的住宿环境,还为旅客提供了一系列特色的服务。无论是早餐服务、接送机服务还是定制旅游行程,都能满足旅客的需求。

精品民宿的主人们对待每一位旅客都像家人一样,温暖而热情。他们乐意为旅客提供当地旅游信息和建议,帮助他们制定完美的行程。在这里,旅客可以感受到渔唐独特的人文魅力,并且得到贴心的服务。

感谢您的阅读

通过本篇文章,希望能让您更好地了解渔唐这个迷人的海滨小镇以及它的精品民宿。在渔唐,您可以畅享美丽的自然风景,体验浓厚的渔村文化,尽情享受舒适的住宿和独特的服务。期待您的到来,感谢您看完这篇文章!

五、毕畅是唐鉴军的什么人?

唐鉴军和毕畅私下是很好的朋友,两人都是辽宁民间艺术团的演员。

毕畅由于参演“王小蒙”而被观众们熟识,她把这个温婉孝敬的人物角色演得十分惟妙惟肖,深得观众们的钟爱。

唐鉴军在《乡村爱情》中扮演王小蒙的家公谢广坤,这一人物角色个性化难缠,常常会搞出一些呵呵哒刁难儿媳妇,因此 常常被观众们调侃。

六、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

七、webgis面试题?

1. 请介绍一下WebGIS的概念和作用,以及在实际应用中的优势和挑战。

WebGIS是一种基于Web技术的地理信息系统,通过将地理数据和功能以可视化的方式呈现在Web浏览器中,实现地理空间数据的共享和分析。它可以用于地图浏览、空间查询、地理分析等多种应用场景。WebGIS的优势包括易于访问、跨平台、实时更新、可定制性强等,但也面临着数据安全性、性能优化、用户体验等挑战。

2. 请谈谈您在WebGIS开发方面的经验和技能。

我在WebGIS开发方面有丰富的经验和技能。我熟悉常用的WebGIS开发框架和工具,如ArcGIS API for JavaScript、Leaflet、OpenLayers等。我能够使用HTML、CSS和JavaScript等前端技术进行地图展示和交互设计,并能够使用后端技术如Python、Java等进行地理数据处理和分析。我还具备数据库管理和地理空间数据建模的能力,能够设计和优化WebGIS系统的架构。

3. 请描述一下您在以往项目中使用WebGIS解决的具体问题和取得的成果。

在以往的项目中,我使用WebGIS解决了许多具体问题并取得了显著的成果。例如,在一次城市规划项目中,我开发了一个基于WebGIS的交通流量分析系统,帮助规划师们评估不同交通方案的效果。另外,在一次环境监测项目中,我使用WebGIS技术实现了实时的空气质量监测和预警系统,提供了准确的空气质量数据和可视化的分析结果,帮助政府和公众做出相应的决策。

4. 请谈谈您对WebGIS未来发展的看法和期望。

我认为WebGIS在未来会继续发展壮大。随着云计算、大数据和人工智能等技术的不断进步,WebGIS将能够处理更大规模的地理数据、提供更丰富的地理分析功能,并与其他领域的技术进行深度融合。我期望未来的WebGIS能够更加智能化、个性化,为用户提供更好的地理信息服务,助力各行各业的决策和发展。

八、freertos面试题?

这块您需要了解下stm32等单片机的基本编程和简单的硬件设计,最好能够了解模电和数电相关的知识更好,还有能够会做操作系统,简单的有ucos,freeRTOS等等。最好能够使用PCB画图软件以及keil4等软件。希望对您能够有用。

九、唐狮男装:畅享夏日的休闲短裤指南

随着夏季的来临,许多男士开始寻找既时尚又舒适的短裤,以便在炎热的天气中保持凉爽。唐狮男装作为一个知名的休闲服装品牌,其推出的休闲短裤受到广大消费者的青睐。本文将为您详细介绍唐狮男装的休闲短裤,包括选购指南、搭配建议及品牌特点,以便您能找到最适合自己的短裤。

唐狮男装的品牌理念

唐狮男装一直致力于为广大年轻男性提供高品质、时尚并且舒适的服装。品牌追求创新和个性,强调在休闲与正式之间寻找平衡。其休闲短裤在设计时充分考虑穿着者的舒适度与活动自如,旨在为每位男士的日常生活增添一份轻松和自在。

选购唐狮男装休闲短裤的要素

在选购休闲短裤时,以下几个要素非常重要:

  • 面料的选择:唐狮男装的短裤采用各种高级面料,如棉、涤纶和尼龙等,具有良好的透气性和舒适感。选择轻薄或速干的面料更适合炎热的夏季。
  • 尺码合适:确保选择合适的尺码是关键,太紧或太松都可能影响活动的舒适度。可以参考唐狮男装的尺码表,选择最适合自己的码数。
  • 颜色与图案:唐狮男装提供多种颜色和图案选择,从经典的纯色到时尚的印花,每位男士都能找到符合自己风格的短裤。
  • 功能性设计:考虑短裤的功能性,例如口袋数量、是否有拉链或弹力设计等,这些细节可以影响整体的使用体验。

唐狮男装休闲短裤的搭配建议

搭配适当的服饰可以提升整个造型的层次感,以下是一些搭配建议:

  • T恤:唐狮男装的短裤与简约风格的T恤极为契合,无论是基础款还是印花款,均能展现休闲风格。
  • 衬衫:在休闲场合中,可以将短裤与一件轻薄的衬衫搭配,增添一份时尚气息,同时保持清爽感。
  • 运动鞋:搭配运动鞋不仅舒适,还可提升活动的灵活性,适合各种户外活动。
  • 凉鞋:在更热的天气中,搭配一双时尚的凉鞋时尚度与舒适度兼备,尤其适合海滩或度假场合。

消费者反馈与评价

唐狮男装的休闲短裤在消费者中普遍受到点赞,许多消费者提到了短裤的舒适性和款式多样性。许多人表示,唐狮的短裤穿着轻便,非常适合日常生活或假日休闲活动。此外,短裤的耐用性也得到了显著的评价,许多用户在购买后使用数年,依然保持良好的状态。

总结

唐狮男装的休闲短裤凭借其出色的设计、舒适的面料和多样的选择,成为了男士夏季必备的时尚单品。通过本文的介绍,相信您能对休闲短裤的选购和搭配有更深入的了解。无论是日常出行还是假日活动,唐狮男装的休闲短裤都能为您提供最优质的穿着体验。

感谢您阅读完这篇文章,希望通过本文的介绍,能够帮助您选购到合适的唐狮男装休闲短裤,让您的夏季造型更加时尚与舒适。

十、paas面试题?

1.负责区域大客户/行业客户管理系统销售拓展工作,并完成销售流程;

2.维护关键客户关系,与客户决策者保持良好的沟通;

3.管理并带领团队完成完成年度销售任务。

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38