盛大神迹?

时间:2024-10-02 14:59 人气:0 编辑:招聘街

一、盛大神迹?

现在是有奇趣代理。盛大卖给奇趣了。还可以玩。就是人不多

二、盛大的全称?

全称“上海盛大网络发展有限公司”

盛大集团是全球最大的私人投资控股集团之一。盛大于1999年,由我们的董事长兼首席执行官陈天桥先生及其他家人在中国上海创立目前在上海,北京,香港,新加坡和美国硅谷都设有办公室。旗下有多家公司:盛大游戏,盛大在线,盛大文学等

三、盛大游戏神迹?

你看你是账号不对还是你要密码不对,不行就直接找客服

四、盛大起航致辞?

恭喜我们的船,杨帆启航,盛大起航

五、盛大为什么没落了?

个人加入盛大做得时间不长,但是去了盛大不少地方,去的时候盛大游戏是行业第一,走的时候盛大游戏行业第四,也算是见证了由盛转衰的过程,简单说点个人意见,仅供参考,谢绝转载。

1. 领导力。大家都说桥哥独裁是大问题,其实个人觉得独裁不算大问题,盛大初期也独裁,依然牛X,投机的话当不了行业老大那么多年。大问题是你独裁就独裁,但是到了后期却只顾空谈,养了一帮子奴才。桥哥应该创业时期还是很给力的,战略也到位,但是那个时候公司小,自己精力好,所以公司还行,但是随着公司大了,桥哥结果居然身体还不好了,这个就糟糕了,而更糟糕的是皇上身边居然缺乏信任的人。创始人团队里,和自己的弟弟之间几乎形同陌路,各玩各的,谭、张不得信任,现在都已经离开,谭走的时候居然还点评为“有功有过”,这早就说明撕破脸皮了。而所谓的奴才,关注盛大新闻的因为很多人都看过,内部某某称“我不懂业务,但我懂桥哥",这话MS古时候都属于那些称奴才的人说的吧,关键是这话的奴才居然在有新闻后依然混得风生水起,公司内更有被底下人戏称为”东厂“的组织,在此就不点名了。懂业务的很多郁郁不得志,大批业内有真才实学的,来了最后都走了。官僚主义的管理风格,加上皇上被奸佞迷惑,那就没得玩了。“空谈误国,实干兴邦”

2. 走得太快,看得太远,没有着重点。所谓的盛大胜在弯道超车,这动作本来交通规则里就是危险动作,你玩一次就算了,你多玩几次,即便是超跑也得撞上吧,你当这是美国大片还是跑跑卡丁车呢,各种甩尾。当了游戏行业老大那么多年,其实盛大游戏有多苦逼可能很多人都不知道,完全就是一头牛,吃的是草,挤得是奶,奶被其他孩子喝了,自己却越来越消瘦了。看看网易、看看腾讯,游戏赚的钱就继续投入到游戏,现在两家的游戏收入都占全公司50%以上,对游戏也很看重,而SD都拿去投了无数公司,结果除了盛大文学还行,其他都打了水漂。钱都花完了,自己缺乏投入,那就无能为力了。

3. 缺乏创新,或者说不看重创新。应该是大年作为GEEK还是算是看创新的,可惜志不在游戏,开了个创新院自己去玩。而游戏呢,当了游戏老大那么多年,居然缺乏一支真正行业顶尖的开发团队,这是不可想象的!看看现在前三,网易、搜狐龙头产品都是自我创新的,当年的完美研发能力也极强,腾讯虽然DNF、CF贡献能力强,但是人家也研发了很多产品啊,虽然不少也失败了,但是总体来说还是有精品拿出的。不要说盛大的传奇世界也是自研,传奇这类游戏只能说是现象级游戏,你没法复制的。而盛大其他自研游戏无一生还,当时的英雄年代团队被史玉柱整个挖走,侧面也反映了盛大对研发的不看重。星辰变、零世界都是雷声大、雨点小,品质如何,大家玩玩就知道了。盛大运营一流,研发个人觉得不说三流,但肯定在业内排不进前五。

4. 研发不行,你代理好也总行吧。我们说代理,只能说,做了多年老大,自己也骄傲了,觉得我代理你的游戏是看得起你。魔兽、DNF基本都是研发公司先找盛大,盛大不是给不起钱,但是就是不愿意给,结果一个成就了九城(现在当然是网易傍上了暴雪大腿),一个成就了腾讯。韩国NCSOFT当年和盛大几乎穿一条裤子,还是战略合作伙伴,结果AION被盛大搞残搞废了,还发生了很多不愉快的事情,总之就是把NCSOFT惹火了,至此再也不给盛大代理权了,剑灵、天堂、上古世纪等等优秀IP全给了腾讯,人家不跟你玩了。我能说据说当年跑跑卡丁车也差点是盛大的么。想想看,这些游戏如果全部还在盛大手上,研发不行,盛大老大应该还是没啥大问题吧。

5. 人才。盛大其实待遇还是在业内不错的,但是晋升机制等还是有问题,不过这个感觉是行业通病,不过Jack Ma还是说得好,人走主要为啥,“钱拿少了,心受伤了”。

6. 其他杂七杂八说一下,发现一个好玩的地方,桥哥很多战略其实并不算失败,只因为别人后来都用同样的战略胜利了,难道这就是传说中的“别人家的“.....当年盒子失败了,结果看看现在,苹果有盒子,谷歌有类似盒子的产品,小米盒子,乐视盒子,满眼望去都是盒子,而桥哥比乔布斯还要早好几年推出盒子啊!再看网上迪斯尼,看起来腾讯好像距离这个梦想更近了!

之前有个帖子,好像叫你为什么离开盛大,那里面也讲了很多。其实一个公司兴衰常有,只是看着自己曾经一直仰慕的一家公司就这么衰落,也是自己的老东家,还是挺难过的。盛大文学、盛大游戏都再也不属于盛大,且行且珍惜吧。

==================

补充一个,个人一个感觉,桥哥从始至终其实就看!不!起!做游戏的。他几乎从始至终也没有把游戏当做一回事,当年的游戏成功只是因为看起来游戏还可以赚钱。游戏就像是他的私生子,无论孩子怎么优秀,当爹的都看不起他,在他眼中,就是一个赚钱工具,毫无感情!我感觉他一直都想卖掉它,只是一直没找到一个能够替代它的对象罢了,现在看着游戏也不行了,干脆卖了算了,盛大文学始终难以IPO,所以索性也卖了。这又让我想起,为啥王全安有一个如花似玉的张雨绮当老婆,却还要去嫖娼,这我始终想不明白啊,桥哥为啥就让我感觉他看不起那么牛X的盛大游戏呢,奇怪啊。

6月13日更新===============

第一次被邀请知乎回答,还第一次点赞过百,让我受宠若惊,看到评论的,做一些能够说出来的解释

1. 对于AION的问题。这个我本人没有直接进入该工作室,所以有的信息也是从其他方面间接知道。这个游戏确实优秀,画面到玩法等都很符合中国玩家。但是为什么在被盛大做残了后还能和NCSOFT续约,我只能说对不起这个事不能说,逻辑链很长很复杂,总之就是盛大骄傲过头。

2. 很多人说外挂那么多,运营还能好?外挂问题真!的!不!是!运营能够解决的啊!!我也很讨厌外挂,我做过的游戏也碰到外挂,但是这个一般涉及到开发程序的问题,盛大内部为了抓外挂做了很大努力,很多工作组通宵加班,但是因为这是代理的游戏,所以棒子们不修程序,或者根本就修不好,你让我怎么运营?我们只有封号,但是有时候也抓不完啊,免费的游戏,封了重新建个小号就行,或者干脆只用小号玩外挂,怎么抓?

3. 至于我说盛大运营一流,这个应该业界还是承认的吧。盛大内部一直说,研发不足运营补,就是靠运营去延长游戏寿命。蜗牛把九阴和黑金这两款制作很好的游戏给盛大运营,也说明了盛大运营能力吧。

4. 至于说运营好为啥盛大还衰落了,我只有呵呵了。高收入指标、压榨用户、短期投机、外行指导内行等等也都是有发生的,运营真的不是神。都说企鹅运营好,我认识很多企鹅过来的人,以前在企鹅运营过很优秀的游戏,来了盛大也没法了,这个就是我之前说的比如领导力的问题,看很多人都说盛大投机,这个在后期确实也是有的。短期砸一笔市场费,如果不出成绩,马上投入另外一个游戏,基本这个游戏就废了,用户基础怎么来?保持高收入和高活跃很多时候是个相悖的目标,拉收入狠了,必然导致很多玩家流失。打一棒子也得给颗红枣嘛。说实话,我离开盛大有一部分原因也就是因为这种不理性的高层投机指导,看不下去了,我又人微言轻,只有自己走人了。

5. 还有一位兄弟的评论根据我的理解,好像是说运营好就能有好的代理吧?这个好像没有逻辑联系啊。运营好是好,但是问题是你是跟人家去做商务谈判的啊。暴雪这种国际大鳄面前你还装X,暴雪能开心?暴雪出品,必然精品,盛大不愿意跟你出这钱,朱老板愿意出,当然给朱老板了。记得一个朋友曾经说,盛大最早和别人谈合作是自己躺着谈,后来不行了就坐着谈,再后来现在只有站着谈了。

我也不是来诋毁盛大的,毕竟是自己待过的公司,还是很有感情的,盛大依然有着领先全行业的很多东西,优秀的运营,完备的组织架构体系和人才梯队,渠道关系和盛大的体量等等也依然有崛起的资本。只是如果不痛定思痛,重新出发,确实我个人是很难看到他的未来。现在游戏已经卖给财团了,没有来自集团的高压,减少了一些审批,希望能够看到游戏的重新出发,也祝福盛大游戏,祝福这个曾经战斗过的地方。

六、如何投诉盛大的彩虹客服。通过盛大投诉?

你要投诉客服? 如果是文字客服就你电话投诉 如果是语音客服你就文字投诉 他们不是一条杠上的 。

但是你是因为他不帮你解决 就是可能你骂了他 他们这些都有截图或者录音的 最好小心举报

七、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

八、webgis面试题?

1. 请介绍一下WebGIS的概念和作用,以及在实际应用中的优势和挑战。

WebGIS是一种基于Web技术的地理信息系统,通过将地理数据和功能以可视化的方式呈现在Web浏览器中,实现地理空间数据的共享和分析。它可以用于地图浏览、空间查询、地理分析等多种应用场景。WebGIS的优势包括易于访问、跨平台、实时更新、可定制性强等,但也面临着数据安全性、性能优化、用户体验等挑战。

2. 请谈谈您在WebGIS开发方面的经验和技能。

我在WebGIS开发方面有丰富的经验和技能。我熟悉常用的WebGIS开发框架和工具,如ArcGIS API for JavaScript、Leaflet、OpenLayers等。我能够使用HTML、CSS和JavaScript等前端技术进行地图展示和交互设计,并能够使用后端技术如Python、Java等进行地理数据处理和分析。我还具备数据库管理和地理空间数据建模的能力,能够设计和优化WebGIS系统的架构。

3. 请描述一下您在以往项目中使用WebGIS解决的具体问题和取得的成果。

在以往的项目中,我使用WebGIS解决了许多具体问题并取得了显著的成果。例如,在一次城市规划项目中,我开发了一个基于WebGIS的交通流量分析系统,帮助规划师们评估不同交通方案的效果。另外,在一次环境监测项目中,我使用WebGIS技术实现了实时的空气质量监测和预警系统,提供了准确的空气质量数据和可视化的分析结果,帮助政府和公众做出相应的决策。

4. 请谈谈您对WebGIS未来发展的看法和期望。

我认为WebGIS在未来会继续发展壮大。随着云计算、大数据和人工智能等技术的不断进步,WebGIS将能够处理更大规模的地理数据、提供更丰富的地理分析功能,并与其他领域的技术进行深度融合。我期望未来的WebGIS能够更加智能化、个性化,为用户提供更好的地理信息服务,助力各行各业的决策和发展。

九、freertos面试题?

这块您需要了解下stm32等单片机的基本编程和简单的硬件设计,最好能够了解模电和数电相关的知识更好,还有能够会做操作系统,简单的有ucos,freeRTOS等等。最好能够使用PCB画图软件以及keil4等软件。希望对您能够有用。

十、paas面试题?

1.负责区域大客户/行业客户管理系统销售拓展工作,并完成销售流程;

2.维护关键客户关系,与客户决策者保持良好的沟通;

3.管理并带领团队完成完成年度销售任务。

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38