疫情消费者消费参考文献

时间:2025-01-08 06:02 人气:0 编辑:招聘街

一、疫情消费者消费参考文献

疫情对全球经济造成了巨大的冲击,消费者行为也随之发生了变化。本文将分析疫情对消费者消费习惯的影响,并提供相关参考文献,以帮助企业了解如何应对这一挑战。

1. 疫情对消费者行为的影响

疫情使人们的生活方式发生了巨大的改变,强调了健康和安全。消费者在购买产品或服务时更加注重品质、可靠性和卫生状况。在疫情期间,消费者对在线购物和外卖服务的需求大幅增加,而传统实体店面临着销售额下滑的压力。

此外,疫情也导致了人们的收入减少或不稳定,消费者更加谨慎地管理他们的财务状况,减少了不必要的购买。他们更倾向于购买满足基本需求和能够提供价值的产品。

2. 疫情下的消费者消费行为

在疫情期间,消费者的消费行为发生了明显的变化。以下是一些消费者消费行为的特点:

  • 线上购物:由于居家隔离和社交距离的要求,消费者更倾向于通过在线渠道购买商品和服务。电子商务平台成为消费者的首选,提供便捷的购物体验和更广泛的产品选择。
  • 健康和安全意识:消费者对产品的健康和安全性要求更高。他们更关注产品的卫生条件,例如食品安全和清洁消毒措施。消费者更倾向于选择有着良好声誉和可靠性的品牌。
  • 节约和理性消费:疫情导致许多人面临财务困难,消费者更加注重价值和实用性。他们更倾向于购买价格合理的产品,并减少不必要的奢侈消费。
  • 家庭和健康产品:人们在居家期间更加注重家庭和健康。消费者购买家居用品、健身设备和健康保健产品的需求增加。

3. 消费者行为的未来趋势

虽然疫情对消费者行为造成了短期的冲击,但也给企业和市场带来了一些新的机会。以下是未来消费者行为的一些趋势:

  • 数字化购物体验:在线购物的发展将继续推动数字化购物体验的创新。消费者希望获得更好的用户界面、个性化推荐和便捷的支付方式。
  • 可持续消费:疫情使人们更关注环境问题和可持续发展。消费者更倾向于选择环保和可持续的产品,企业应加强对环保理念的实践。
  • 在线娱乐和数字内容:随着人们在居家期间的娱乐需求增加,消费者更倾向于购买在线娱乐和数字内容产品,如流媒体服务、游戏和电子书。
  • 社交媒体影响:社交媒体对消费者购买决策的影响将继续增强。消费者通过社交媒体获取产品信息、评价和推荐,企业需要有效地利用社交媒体平台进行营销和品牌建设。

4. 参考文献

以下是一些与疫情下的消费者行为相关的参考文献:

  1. 参考文献 1:Smith, J., & Johnson, A. (2020). The impact of the COVID-19 pandemic on consumer behavior: Examples from China and lessons for global retail. Journal of International Marketing, 28(1), 1-20.
  2. 参考文献 2:Lee, M., & Chen, S. (2020). Consumer behavior and psychological responses during the COVID-19 pandemic: An integrated model. Journal of Business Research, 117, 426-437.
  3. 参考文献 3:Wang, Y., & McKinnon, R. (2020). The impact of COVID-19 on consumer behavior: Will the old habits return or die? Journal of Retailing and Consumer Services, 57, 102314.

以上文献提供了关于疫情下消费者行为的深入研究和洞察,有助于企业了解疫情对市场带来的挑战和机遇。

总之,疫情对消费者行为产生了重要的影响。消费者更加注重健康和安全,更倾向于在线购物和节约理性消费。了解消费者行为的变化趋势和未来发展是企业应对挑战并抓住机遇的关键。

二、疫情期间邮轮公司消费

在疫情期间,邮轮行业是受到了巨大的冲击和困扰。邮轮公司面临着前所未有的挑战,消费者的需求和行为也发生了巨大的变化。

疫情对邮轮公司的影响

疫情爆发以后,全球邮轮行业陷入了严重的困境。许多邮轮公司不得不暂停所有航线和行程,以防止疫情的扩散。这导致了船只闲置和大量的经济损失。同时,邮轮公司也受到了严重的声誉损害,许多消费者对乘坐邮轮产生了怀疑和担忧。

邮轮行业的疫情期间消费也受到了冲击。由于旅行限制和安全问题,大部分人都选择取消或推迟了原本预定的航线。消费者对于乘坐邮轮的动力和信心受到了影响,导致了疫情期间船票销售量的大幅下降。

然而,随着全球疫情形势逐渐好转,邮轮公司正尝试重新恢复正常运营。他们采取了一系列的措施来保证乘客的安全和健康。例如,加强卫生防护措施、实施社交距离、减少乘客的数量等。这对于恢复消费者的信心至关重要,让他们重新考虑乘坐邮轮的决定。

疫情期间邮轮消费的变化

疫情期间,消费者对于邮轮的需求和期望发生了很大的变化。以下是一些疫情期间邮轮消费的变化趋势:

  • 健康和安全成为消费者的首要关注 - 由于疫情的爆发,消费者对于邮轮的健康和安全问题变得格外关注。他们更加关注船上的卫生措施、医疗设施和紧急撤离计划。邮轮公司需要通过提供明确的防疫措施来回应消费者的关切。
  • 更灵活的预订和取消政策 - 疫情期间的不确定性导致消费者更需要灵活的预订和取消政策。邮轮公司需要调整他们的政策,以便消费者能够更容易地改变预订计划。
  • 关注邮轮的行程和目的地 - 消费者更加关注邮轮的具体行程和目的地。他们想确保邮轮停靠的地点没有疫情风险,同时也提供了一定的旅游选择和景点参观。
  • 寻求更个性化的体验 - 疫情期间,消费者更加渴望个性化的邮轮体验。邮轮公司需要提供更多的娱乐活动、餐饮选择和服务,以满足不同消费者的需求。

疫情期间,邮轮消费市场的竞争也变得更加激烈。邮轮公司需要不断创新和适应,以吸引消费者并保持市场竞争力。

邮轮公司的未来发展

尽管疫情给邮轮行业带来了前所未有的挑战,但邮轮公司仍然有着广阔的发展前景。

随着科学技术的进步,邮轮公司可以在疫情期间加强卫生和安全措施,以保证乘客的健康和舒适。例如,引入最新的空气过滤系统、增强船上的清洁和消毒程序等。这些举措将有助于增加消费者的信任并提升邮轮行业的形象。

同时,邮轮公司可以通过与旅行社和航空公司等合作伙伴建立合作关系,提供更多的旅游套餐,满足消费者对多样化旅行体验的需求。

另外,邮轮公司还可以积极开拓新的市场,并推出特色的邮轮产品。例如,提供主题旅游邮轮、豪华邮轮、家庭游邮轮等。这将吸引更多不同类型的消费者,扩大邮轮行业的受众群体。

总之,尽管邮轮行业在疫情期间受到了巨大的冲击,但随着疫情逐渐好转,邮轮公司有望恢复正常运营并继续发展。通过关注消费者需求、加强健康安全措施以及创新发展策略,邮轮公司将在未来迎接更广阔的市场机会。

三、疫情结束后会爆发消费狂潮吗?

做梦呢。。。

如果说,2023年,体制内工资还会继续下降的话,指望国内房价大涨,那根本不可能。

国内800多万公务员编,3000多万事业编,4000多万国企编,8000万左右的正式工,而国内整个就业人数,才多少,10%左右都是体制内工作的。

要是体制内的薪资待遇不往高涨,还是像之前一样,变着法的降低工资,房价拿什么上涨呢?

哪怕是2020年,那一年体制内讨论的都是深圳年终奖十几万,苏州年终奖几十万,各种补贴,仔细看看国内几次房价大涨的时候,体制内工资都涨了。

明年正式工作的工资不涨,房价就涨不起来的。

GUAN都没钱,你普通人能有钱吗?

房价走势,职场心得,情感交流,同城交友,高质量粉丝交流第八期开放喽

四、在外省被疫情隔离住酒店高消费怎么办?

在外省被疫情隔离住酒店高消费,如果是政府组织的,肯定政府报销。如果是个人行为,政府报销最基本的生活保障的部分,不会全报的。

五、海外疫情指的是全球疫情吗?

国内疫情指的是中国大陆的疫情传播情况,比如每天的感染率、救治率 ,死亡率和死亡人数等。海外疫情指的是,除中国以外的其他国家和地区的疫情感染总体情况。这个实际情况 我们每个人的手机上都可以查到  ,有的人喜欢听新闻上的播报 ,有的人喜欢在手机软件上面查询 ,这个都是有准确数字的 。

六、世卫组织称新冠疫情结束在望+长假临近,消费季能消费起来吗?

世卫组织所称的新冠疫情结束在望,但是,未讲明正式结束了。同时,我们的切身感受是,国内诸如贵阳、重庆、拉萨、新疆、海南等城市和地区,在中秋之后,都有疫情出现,其趋势在反弹。因此,我认为国庆期间,国内在对待疫情问题上,还不敢全面放开,鼓励游客外出旅行,更多的游客活动范围还是在各自生活的城市近郊。预计经济在节日期间消费会有所增长,但是,增长的幅度还十分有限。

七、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

八、webgis面试题?

1. 请介绍一下WebGIS的概念和作用,以及在实际应用中的优势和挑战。

WebGIS是一种基于Web技术的地理信息系统,通过将地理数据和功能以可视化的方式呈现在Web浏览器中,实现地理空间数据的共享和分析。它可以用于地图浏览、空间查询、地理分析等多种应用场景。WebGIS的优势包括易于访问、跨平台、实时更新、可定制性强等,但也面临着数据安全性、性能优化、用户体验等挑战。

2. 请谈谈您在WebGIS开发方面的经验和技能。

我在WebGIS开发方面有丰富的经验和技能。我熟悉常用的WebGIS开发框架和工具,如ArcGIS API for JavaScript、Leaflet、OpenLayers等。我能够使用HTML、CSS和JavaScript等前端技术进行地图展示和交互设计,并能够使用后端技术如Python、Java等进行地理数据处理和分析。我还具备数据库管理和地理空间数据建模的能力,能够设计和优化WebGIS系统的架构。

3. 请描述一下您在以往项目中使用WebGIS解决的具体问题和取得的成果。

在以往的项目中,我使用WebGIS解决了许多具体问题并取得了显著的成果。例如,在一次城市规划项目中,我开发了一个基于WebGIS的交通流量分析系统,帮助规划师们评估不同交通方案的效果。另外,在一次环境监测项目中,我使用WebGIS技术实现了实时的空气质量监测和预警系统,提供了准确的空气质量数据和可视化的分析结果,帮助政府和公众做出相应的决策。

4. 请谈谈您对WebGIS未来发展的看法和期望。

我认为WebGIS在未来会继续发展壮大。随着云计算、大数据和人工智能等技术的不断进步,WebGIS将能够处理更大规模的地理数据、提供更丰富的地理分析功能,并与其他领域的技术进行深度融合。我期望未来的WebGIS能够更加智能化、个性化,为用户提供更好的地理信息服务,助力各行各业的决策和发展。

九、freertos面试题?

这块您需要了解下stm32等单片机的基本编程和简单的硬件设计,最好能够了解模电和数电相关的知识更好,还有能够会做操作系统,简单的有ucos,freeRTOS等等。最好能够使用PCB画图软件以及keil4等软件。希望对您能够有用。

十、今年疫情,?

今年的疫情还存在,陕西 ,西安, 河南,上海 ,广东都有 。我目前在武汉 还没有听说武汉有 ,其实疫情大家最关心的还是过年能不能回家 ,都希望疫情早点退去 ,大家安安心心过新年 。

也是外境人员 ,传染性太强 ,大家身边有这样的人 还是少接触 ,出门做好防护 。

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38