考研面试题目及分值?

时间:2024-08-21 06:50 人气:0 编辑:招聘街

一、考研面试题目及分值?

一般的考研面试的题目都是是100分:自我介绍占到三十分左右;英语口语和听力测试占到二十分左右,专业课的测试占到四十分左右,整体风貌占到十分左右。面试得分占到复试得分的百分之八十,学校背景、考生本科期间的表现占百分之二十。再把复试成绩和初试成绩加权得到最后的得分。

二、考研辩证思维的面试题

探讨考研辩证思维的面试题

在考研的复试阶段,很多院校都会设置一些考察考生思维能力和综合素质的面试题,其中不乏辩证思维相关的内容。辩证思维是指在分析问题时,善于从多个角度去看待事物,同时综合考量各种因素,不偏不倚地看待问题。这种思维方式在现代社会中尤为重要,因此考研复试中涉及到辩证思维的面试题也是为了选拔具有全面素质的研究生。

1. 请阐述你对辩证思维的理解,并举例说明。

在回答这类问题时,考生可以先简要介绍辩证思维的概念,即全面、客观地看待问题,避免片面性与偏见。接着可以通过生活中的例子来说明,比如说在处理矛盾问题时,要善于换位思考,站在对方角度看问题,而不是一味地坚持自己的立场。同时,也可以结合历史事件或社会现象来展开回答,强调辩证思维在实际生活中的重要性。

2. 如果你面对一个复杂问题,你会如何运用辩证思维来处理?

这类问题考察考生解决问题的能力,同时也考察其辩证思维的运用能力。考生可以先提出对于复杂问题需要全面分析的观点,然后可以逐步分析问题的各个方面,从不同角度寻找解决方法。同时也可以强调在解决复杂问题时,要善于综合运用各种方法,避免走极端或陷入僵局。

3. 你认为辩证思维在现代社会的重要性是什么?

这类问题考察考生对于辩证思维的认识和对社会发展的看法。考生可以结合现代社会的复杂性和多变性来阐述辩证思维的重要性,指出在信息爆炸的时代,辩证思维可以帮助人们理性看待问题,避免盲目跟风或偏激言论。同时,也可以从社会进步和个人成长角度来分析辩证思维的意义,强调其对于职场发展和人际关系的积极影响。

4. 请谈谈你在大学生活中运用辩证思维解决问题的经历。

可以在这类问题中结合自身经历,从学习、社交或组织活动等方面来展开回答。考生可以选择一个具体的事件或问题,介绍自己如何运用辩证思维来解决,包括碰到问题时如何从不同角度看待,如何寻求解决方法,以及最终取得的成果和启示。这样的回答既真实又具体,能够展示考生的实际能力和辩证思维的灵活运用。

综上所述,考研辩证思维的面试题不仅考察考生的理论认识,更注重其实际运用能力。而且辩证思维作为一种综合能力,对于研究生的综合素质和未来发展都具有重要意义。因此,考生在备战考研复试时,除了理论知识的准备,也要注重辩证思维的训练,提高自己的思维能力和综合素质,以顺利通过面试,迈向自己的研究生梦想。

三、考研复试面试题答错就是零分吗?

不会的,复试以前你要是和你的老师有沟通的话你答错一两个题目是没有关系的。

四、计算机 考研 面试题 及答案

计算机考研面试题及答案

计算机科学与技术在现代社会中扮演着重要的角色,许多学生都希望通过考研来深入学习和研究这个领域,从而开启自己的科研之路。而考研的面试环节是很多人担心的,因为面试官往往会提出一些具有挑战性的问题。本文整理了一些常见的计算机考研面试题及答案,希望对考研的同学们有所帮助。

1. 什么是计算机网络?

计算机网络是指将分布在不同地理位置的计算机和设备通过通信链路互相连接起来,以实现资源共享和信息传递的系统。它是现代计算机技术的重要组成部分,被广泛应用于各个领域。

2. OSI七层模型是什么?

OSI七层模型是Open Systems Interconnection的缩写,指的是一个用来描述计算机网络体系结构的框架,它将计算机网络通信协议划分为七个层次,分别是物理层、数据链路层、网络层、传输层、会话层、表示层和应用层。

3. 请解释TCP/IP协议族。

TCP/IP协议族是一组用于实现计算机网络通信的协议集合,它是因特网和许多局域网、广域网所采用的标准协议。它包含了一系列的协议,其中两个最重要的协议是TCP(Transmission Control Protocol)和IP(Internet Protocol)。

4. 什么是HTTP协议?

HTTP协议是超文本传输协议(Hypertext Transfer Protocol)的缩写。它是用于从万维网服务器传输超文本到本地浏览器的传送协议。它是一种无状态的协议,即服务器不会在两个请求之间保留任何数据,因此它可以快速高效地传输数据。

5. 请解释数据库事务。

数据库事务是指由一系列数据库操作组成的逻辑工作单元。一个事务可以由一个或多个数据库操作(例如插入、更新、删除)组成,这些操作要么全部执行,要么全部不执行。事务的ACID特性保证了事务的可靠性和一致性,即原子性(Atomicity)、一致性(Consistency)、隔离性(Isolation)和持久性(Durability)。

6. 什么是死锁?如何避免死锁?

死锁是指两个或多个进程在执行过程中因争夺系统资源而造成的一种僵局状态。为了避免死锁,可以采取以下措施:

  • 加锁顺序:所有进程按照相同的顺序请求资源。
  • 资源预先分配:系统在分配资源之前先评估是否有足够的资源可供进程使用。
  • 超时机制:如果一个进程在一定时间内没有获得所需资源,它应该释放已经获得的资源,并重新开始。
  • 资源剥夺:当发生死锁时,系统可以剥夺某些进程的资源,以解除死锁。

7. 请解释什么是操作系统的进程和线程。

操作系统的进程是指正在执行中的程序实例,它由程序、数据和进程控制块组成。进程是操作系统进行资源分配和调度的基本单位。

线程是进程中执行的最小单位,它是进程的一个实体,是CPU调度和分派的基本单位。线程共享进程的资源,但每个线程也有自己的独立的栈和程序计数器。

8. 什么是面向对象编程?请举例说明。

面向对象编程(Object-Oriented Programming,简称OOP)是一种编程范式,它将数据和操作数据的方法组合成对象,通过调用对象的方法来实现程序功能。

举个例子,以Java语言为例,有一个名为"Person"的类,它有属性(例如姓名、年龄)和方法(例如吃饭、睡觉)。通过创建"Person"类的实例,我们可以调用该实例的方法来执行相应的操作,例如person.eat()和person.sleep()。

9. 计算机网络中,什么是IP地址和MAC地址?

IP地址是指互联网协议地址,它是一个由32位或128位二进制数组成的地址,用于标识在计算机网络中的唯一设备。常见的IP地址类型有IPv4和IPv6。

MAC地址是指媒体访问控制地址,它是一个由48位二进制数组成的地址,用于标识计算机网络中每个网络接口的物理地址。它在网络层以下的链路层使用。

10. 请解释什么是虚拟内存。

虚拟内存是一种计算机内存管理技术,它将物理内存和辅助存储器(例如硬盘)结合起来使用。它可以将当前未被使用的内存数据暂时存储到存储介质上,以便为正在运行的程序提供更多的可用内存。它还可以实现进程间内存的隔离和保护。

总结

以上是一些常见的计算机考研面试题及答案,希望对准备考研的同学们有所帮助。面试时,重要的是积累知识的同时要保持自信,理性思考问题并给出合理的答案。祝大家考研顺利,早日实现自己的科研梦想!

五、考研面试题一个都不会怎么办?

如果考研面试题一个都不会,首先不要慌张,可以按照以下步骤处理:

1. 保持冷静,不要紧张。面对面试官时,不要表现出过于紧张或慌乱。

2. 询问问题。如果不懂面试题,可以向面试官询问问题或请求进一步解释。

3. 分析问题。仔细阅读试题,分析试题中的关键词和问题要求,尝试着给出自己的答案。

4. 结合实际。根据自己的专业背景和研究方向,结合实际情况,尽可能地将问题回答出来。

5. 展示个人素质。即使无法回答问题,也可以通过充分展示自己的个人素质,如沉着冷静、自信大方、谦虚有礼等方式,给面试官留下好印象。

6. 学会总结经验。无论面试结果如何,都要及时反思自己的不足之处,并逐步提升自己的学术和面试能力。

六、刷面试题的软件?

1、考试云题库支持按知识点进行分类,支持多级树状子分类;支持批量修改、删除、导出。支持可视化添加试题,支持Word、Excel、TXT模板批量导入试题。有单选题、多选题、不定项选择题、填空题、判断题、问答题六种基本题型,还可以变通设置复杂组合题型,如材料题、完型填空、阅读理解、听力、视频等题型。

七、抗压力的面试题?

面试中被问到抗压力的问题时,可以针对以下问题进行回答:

1. 你对压力的看法是什么?你认为良好的压力管理对于工作与生活的重要性是什么?

2. 你曾经遇到过最大的压力是什么?你是如何处理的?取得了什么成果?

3. 你如何预防压力的堆积?平时都有哪些方法舒缓压力?

4. 你在工作中是如何处理紧急事件的?在紧急事件发生时,你又是如何平静处理的?

5. 当你感到应对不了困难时,你是如何处理自己的情绪的?是否有过跟同事或领导寻求帮助的经验?

以上问题的回答需要切实体现出应聘者的应对压力的能力、态度和方法。需要注意的是,压力是一种正常的工作与生活状态,压力管理不是要消除压力,而是要学会合理地面对与处理压力,以达到更好的工作和生活效果。

八、招聘校医的面试题?

应该是校医的工作范畴,急救处理,传染病知识和健康教育,除专业知识外还会问一些开放性的题目,好好准备下吧,祝你成功。

九、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

十、webgis面试题?

1. 请介绍一下WebGIS的概念和作用,以及在实际应用中的优势和挑战。

WebGIS是一种基于Web技术的地理信息系统,通过将地理数据和功能以可视化的方式呈现在Web浏览器中,实现地理空间数据的共享和分析。它可以用于地图浏览、空间查询、地理分析等多种应用场景。WebGIS的优势包括易于访问、跨平台、实时更新、可定制性强等,但也面临着数据安全性、性能优化、用户体验等挑战。

2. 请谈谈您在WebGIS开发方面的经验和技能。

我在WebGIS开发方面有丰富的经验和技能。我熟悉常用的WebGIS开发框架和工具,如ArcGIS API for JavaScript、Leaflet、OpenLayers等。我能够使用HTML、CSS和JavaScript等前端技术进行地图展示和交互设计,并能够使用后端技术如Python、Java等进行地理数据处理和分析。我还具备数据库管理和地理空间数据建模的能力,能够设计和优化WebGIS系统的架构。

3. 请描述一下您在以往项目中使用WebGIS解决的具体问题和取得的成果。

在以往的项目中,我使用WebGIS解决了许多具体问题并取得了显著的成果。例如,在一次城市规划项目中,我开发了一个基于WebGIS的交通流量分析系统,帮助规划师们评估不同交通方案的效果。另外,在一次环境监测项目中,我使用WebGIS技术实现了实时的空气质量监测和预警系统,提供了准确的空气质量数据和可视化的分析结果,帮助政府和公众做出相应的决策。

4. 请谈谈您对WebGIS未来发展的看法和期望。

我认为WebGIS在未来会继续发展壮大。随着云计算、大数据和人工智能等技术的不断进步,WebGIS将能够处理更大规模的地理数据、提供更丰富的地理分析功能,并与其他领域的技术进行深度融合。我期望未来的WebGIS能够更加智能化、个性化,为用户提供更好的地理信息服务,助力各行各业的决策和发展。

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38