seo常用的7条搜索引擎指令列表如下:
1、site:指令
2、domain:指令
3、inurl:指令
4、intitle:指令
5、双引号(“”)指令
6、减号(-)指令
7、filetype:指
site指令site:指令,是每一个SEO入门新手必学的指令。表现形式是:site:+网址。注意点一是网址要去掉http://二是网址带www与不带www网页收录数不同,主要看你是以哪个为主就查哪个。作用就是查询这个网页的收录数。查看自己或者竞争对手时用。如:site:ujiuye.com。
补充:这个指令不仅百度有效,对谷歌同样有效。一个网站原则上来说,收录网页越多越好,只有网页被收录,就有更多的机会有展现,更多的流量。
domain指令domain:指令,它指的是查询结果的相关域,有的等同于外链。表现形式:domain:+网址。如:domain:www.ujiuye.com百度官方虽然没有明确说这个指令代表啥,但是我们可以用这个指令来作为外链的参考。
inurl指令
这里的inurl是什么意思?它是指查询的词包含在url网页中。表现形式:inurl:+URL。举例:inurl:+yuedu下面就是包含这个url的网页了。
intitle指令
intitle:指令,这个是指返回的是页面中包含关键词的页面,百度和谷歌都支持。表现形式:intitle:+关键词。举例:intitle:优就业IT培训。
双引号指令
双引号(“”)指令它是指的完全匹配搜索的一个词,使用方法:“关键词”,双引号必须是英文状态下。如“优就业SEO培训”该语法指令,谷歌百度通用。
减号指令
减号(-)指令,这个比较简单,意思为-后面的词不包括。注意-号前面空格,后面不空格。如:“刘强东 -被捕”这里面被捕的信息就不展示了。
filetype:指令
filetype:指令,这个指令很重要,也很实用。它就是可以搜索返回特定格式的页面。使用方法:关键字filetype:类型。举例,我想查找关于搜索引擎相关的PDF文件,在百度或谷歌里直接放入:搜索引擎原理filetype:pdf,搜索结果都为PDF格式,如图:
360搜索的百亿级网页搜索引擎的架构设计与实现
背景
360搜索是360的重要产品,目前拥有上万台服务器,每日抓取网页数量高达十亿,引擎索引的优质网页数量超过数百亿。
360搜索技术团队通过本文,为大家介绍一下,如此强大的搜索引擎是如何设计的,涉及了哪些关键技术点。
360搜索概况目前360搜索每日抓取的网页数量高达十亿,已经收录的网页基本上是万亿级别的网页集合,实际可检索的网页是在一个百亿级别的网页集合里。
目前360搜索的单日流量是亿级pv。我们目前的在线、离线机群有几万台服务器来维护这么大量级的计算。
主要内容本文的分享主要会侧重于百亿级网站搜索引擎架构的一些核心模块的理论设计。本次分享内容分为以下四个模块:
- 如何设计搜索引擎百亿级网页计算关键技术网页索引组织模式网页检索和相关性
首先从如何设计一个搜索引擎讲起。
基础检索
一个用户请求过来之后,整个搜索引擎的工作流程大致如下:
首先用切词组件做分词,把query分成多个word,然后多个word会从我们的倒排索引里面获取倒排拉链,在倒排拉链的基础上,会做求交计算来拿到所有命中的doclist。拿到doclist之后,我们希望能够把优质的网页反馈给用户,这时候我们还需要做rank计算。rank计算就是拿倒排里面的一些位置索引信息,包括在正排里面拿一些rank的属性特征信息做打分,最终会把分数比较高的TopN结果反馈用户。当然在前端web页面展示的时候,需要从正排中提取摘要信息,展示给用户。这就是整个的检索过程。
基础索引
整个检索过程涉及到两个库。第一个是正排索引,另一个是倒排索引,我这里针对这两个库给大家做一个简单的介绍。
什么是正排索引?我们从互联网上抓取的网页包含很多信息,包括网页头信息、标题、正文、标签等。我们首先从网页中把文章的正文以及文章相关的特征提取出来,当然也输入一些挖掘的信息,然后做一些分词处理。这个过程,我们是把整个的网页生成了两部分数据,第一部分就是属性,所谓属性就是针对这些网站的一些特征,比如说网站分类信息、网站rank相关信息等。第二个是针对的正文的分词的结果。
整个的正排索引,就是以doc为key,以属性和word列表为value的一种结构。因为用户在检索时是以word为key来做检索的,我们希望能够把正排索引转化成一种结构,来适应用户的检索,所以我们把正排索引转化成了以word为key,以doclist为value的一种结构,这个结构能够给用户提供高效的检索。这就是我们所谓的倒排索引。
检索模型
上面简单地介绍了搜索引擎的工作过程及基本概念,那下面我们讲一下,站在用户检索的角度来说,如何来设计一个搜索引擎,它的检索模型是什么样的?
第一步,query分析
首先要做的就是针对用户输入的query进行query分析。query分析基本包涵三点:确定检索的粒度、Term属性分析、Query需求分析。
确定检索的粒度所谓确定检索粒度,就是分词的粒度。我们会提供标准的分词,以及短语、组合词。针对不同的分词粒度返回的网页集合是不一样的。标准分词粒度越小,返回的结果越多,从中拿到优质结果的能力就越低。而短语和组合词本身就是一个精准的检索组合,相对的拿到的网页集合的质量就会高一些。
Term属性分析这一块主要是涉及到两个点。
第一个点就是query中每一个词的termweight(权重)。权重是用来做什么的?每一个用户的query它本身都有侧重点。举个例子,比如“北京长城”这个query,用户输入这个词搜索的时候其实他想搜的是长城,北京只是长城的一个限定词而已,所以说在termweight计算的时候,长城是作为一个主词来推荐的。即使query只搜长城也会返回一个符合用户预期的结果,但是如果只搜北京的话,是不可能返回用户预期的结果的。
第二个就是term本身的一些紧密性。紧密性代表用户输入的query的一些关联关系。举个明显的例子,有些query是具有方向性的,比如说北京到上海的机票怎么买?多少钱?这本身是有方向性的语义。
Query需求分析针对query本身我们要分析用户的意图是什么?当然也包括一些时效性的特征。举个例子,比如说“非诚勿扰”这个词,它有电影也有综艺节目。
如果说能够分析出用户本身他是想看电影还是看综艺节目,我们就会给用户反馈一个更优质的结果,来满足用户的需求。
query分析这里我主要做了一个简单的介绍,query分析涉及到的一些算法的东西,可能以后有机会再具体分享,这里先不做介绍。
第二步,查询策略
查询策略覆盖的工具就是我们整个引擎架构所要做的工作。查询策略主要包括四个方面的工作:检索资源、确定相关网页集合、结果相关性计算、重查策略。
检索资源所谓检索资源就是我们从互联网上拿到的网页。从互联网上能拿到的网页,大概是万亿规模,如果说我们把所有网页拿过来,然后做建库做索引,在用户层面检索,从量级上来说是不太现实的。因为它需要很多的机器资源,包括一些服务资源,另外我们从这么大一个集合里面来选取符合用户需求的数据,代价也是很大的。所以说我们会对整个检索资源做一个缩减,也就是说我们会针对互联网上所有的抓取过的网页,做一个质量筛选。
质量筛选出结果之后,我们还会对网页做一个分类。我们拿到陌生的网页,会根据它本身的站点的权威性,网站本身的内容质量做打分。然后我们会对网页分类,标记高质量的网页,普通网页,时效性的一个网页,这样的话在用户检索的时候我们会优先选择高质量的网页返回给用户。当然从另外一个维度来讲,我们也会从内容上进行分类,就是说每个网页的title和qanchor信息,也就是锚文本信息,是对整篇文章的一个描述信息,也代表文章的主体。如果我们优先拿title和anchor信息作为用户的召回的一个相关url集合,那它准确性要比从正文拿到的结果质量要高。当然我们也会保留这种信息来提升它的召回的量。这是检索要准备的检索资源这一块。
确定相关网页集合这一块的话基本上可以分为两点。
一个是整个query切分后的term命中,能够命中query当然非常好,因为它能够反应相关数据,正常情况下,网站和用户query相关性是非常高的。
但是也会存在这样问题,所有的query全命中有可能返回网站数量不够,我们这时候就需要做一些term部分命中的一些策略。前面query分析中讲到了termweight的概念,我们可能会选择一些termweight比较重要的term来作为这次召回结果的一个term。整个确定相关网页集合的过程,就是一个求交计算的过程,后面我会再详细介绍。
结果相关性计算我们拿到了相关的网页之后,会做一个打分,打分就是所说的结果相关性计算。我这里列举了两个最基础的计算。第一个是基础权值的计算,针对每个term和文章本身的相关性的信息。第二个就是term紧密度计算,也就是整个query里面的term在文章中的分布情况。
重查策略为什么有重查策略,就是因为在用户检索过程中有可能返回的结果比较少,也有可能返回给用户的结果质量比较低,最差的就是结果不符合用户的真正意图。我们可能通过以下三个方式来解决这个问题,一是增加检索资源来拿到更多的结果;而是通过更小粒度的term,减掉一些不重要的term来拿到的结果,还有我们可能也会做一些query的改写以及query的扩展,来满足用户的意图。
从整个检索模型可以看到,我们要做的工作首先是query分析;第二我们需要把检索资源提前准备好,那就是所谓的索引;第三点是在一个query过来之后,我们通过求交计算确定相关的网页集合,然后通过相关性计算,把优质的集合返回给用户,最后如果结果不满足用户要求的话,我们可以做一个重查。
这个检索模型,就是我们360搜索设计的一个基础。
02百亿级网页计算关键技术下面我介绍一下360搜索这种百亿级网页的搜索引擎的关键技术。我这里主要介绍离线建库和在线检索两个核心模块。
离线建库和在线检索
离线建库
首先离线建库这一块,我们要有一些基础设施,主要有三部分:Hbase/HDFS、Map-reduce、Storm/Kaka。
第一个是Hbase和HDFS。我们的网页量级很大,我们会把互联网上所有的网页抓取过来存到Hbase库里,我们也会把我们提供检索的网页存到Hbase库里面。为什么用Hbase呢,因为Hbase是一个面向分布式,并支持列存储的。支持列存储这一点对我们很重要,因为我们所有的网页在抓取的过程中,包括rank同学在做rank计算的过程中,都会做一些部分更新,就是按照他们所需要的数据进行更新,那列存储就很容易满足我们的需求。HDFS主要用于建索引和存储产出的索引文件,这些都是落地数据,启动了和线上更新衔接的作用(线上从HDFS拉取数据)。
当然我们的搜索引擎也会涉及到时效性的问题,特别是突发时效性,可能会也需要有实时计算模型。我们目前的话也基于Storm,当然还有我们自己内部在做的一些实时性的开发项目。
整个离线建库主要的核心点有三个部分。
第一个就是索引划分。所谓索引划分,百亿级的网页我们不可能用一个数据库就表示出来,即使我们能表示出来一点,也没有这么大的机器来提供这样一个磁盘存放这些数据,因为索引大概是几P的一个量级。所以说我们需要把索引划分成小的网页集合,然后再针对小的网页集合做索引库,在小的网页集合的基础上和线上的在线服务做一个一一对应的关系。
第二点是索引创建。索引创建这一块基本上是基于Map-reduce跑的批量任务。因为我们上百亿的网页需要跑下来的话,可能需要的资源很多,时间也会拉得很长,Map-reduce本身提供了分布式计算的机制,能够满足我们的需求。
第三点是索引更新。这一块主要涉及到的一是我们每天新抓过来的数据;二是rank的同学要做线上特征,或者属性的一些迭代计算,要更新到线上。所以说也会涉及到百亿级别的数据的索引更新。
在线检索
在线检索的基础设施有三部分:分布式服务、请求广播、负载均衡。
分布式的服务框架是在线检索的一个基础配件;在索引划分的时候,我们会把大的网页集合换成小的集合,在提供检索的时候,我们会以广播的方式来广播到各个小的索引单元,收集所有符合预期的网页集合才能够把它做归并排序,选出最优数据;在线检索服务我们需要考虑更多的还有系统本身的稳定性,这个主要靠负载均衡来保证。在线检索里面最底层的两个核心模块是求交计算和基础相关性计算。
架构
我会通过下面这个图给大家大概讲解一下搜索引擎整体架构的流程。
首先我们先从官网上抓取网页,抓取的网页会存到基于Hbase的网页库里。这个是一个万亿量级的网页库,下一步要做的工作是质量筛选,然后我们会把通过质量筛选的网页放到我们的索引网页库中,所有的建库,包括rank计算,以及所有与搜索引擎相关的部分都是依赖于下边的网页索引库进行的。我们在建索引的时候,会做一个分片处理,分片的机制采用了区间划分。那么区间划分基本上我们就是用md5作为Key,本身md5是64位的整数,按照这64位整数的范围作为一个区间划分。从url转换上md5它本身是均匀分布的,那我们分片按照这个区间划分也会是均匀的,实际上我们划分的各个索引节点的量级也是均等的。
进行分片之后,我们会针对每个分片基于Map-reduce来跑,生成索引,索引主要包括上面讲的正排索引和倒排索引。然后会把索引推送到下面的在线服务推荐,每个在线服务推荐负责一个索引库。这里可以看到,我们根据网页的类型对索引库也做了一个划分,比如说重要网页索引库和普通网页索引库。
还有一个问题,就是我们每天的新增的网站,超过我们实时的网页怎么办?这种情况我们会走另外一个流程,在网页抓取过来之后,也会有一个质量筛选,这个质量筛选有2个流程,第一个是实时计算,通过我们刚才讲到的Storm集群,包括我们目前公司内部的Titan集群,进行实时计算来生成实时性的索引。第二个是我们会把每天更新的这些数据做批量计算,基于Map-reduce生成一个相互索引,这样的话在时间上能够覆盖到所有的时间点。
整个离线建库基本是这样一个流程,下面介绍一下在线检索的模块。用户检索过来之后,我们首先做一个query分析。然后我们把query分析的结果扔给分布式服务的一个请求节点,这个请求节点通过广播的方式会把请求广播到这几种索引库这里。在索引库内部会做一些求交计算。第二步我们会做基础相关性的计算,然后把优质结果的TopN来返回给上层的服务请求节点。服务请求节点还会做一些策略,比如说用户的一些特定需求,包括一些机器学习的排序,最终返回给用户的网页基本上是几百条的一个量级。
整个架构流程是就是这样的模式。下面我会具体讲一下我们重点的一些核心模块的设计。
03网页索引组织模式我先讲一下网页索引组织模式,也就是正排索引和倒排索引是怎么组织的。
正排索引
我们要用正排索引,首先要考虑的第一个问题,就是如何支持独立更新?为什么要做独立更新,是因为我们rank的同学在做任何数据挖掘,包括一些特征计算的时候,每天都有新的迭代出现,这样的话他就需要正排索引能够支持这种天级的更新,甚至支持小时级的更新。所以我们希望正排索引能够设计得足够简单,也足够独立。我们这块所有的设计依赖的主要是每个索引库的url列表。url列表中它的位置就代表docid,数据属性的存储会按照固定长度的数据块存放在数据文件中。数据块的下方位置就是它对应的docid信息。这样在更新和查找的过程中,我们只需要知道它的docid,就很容易找到它所在的位置。这样的好处第一是容易生成索引文件;第二个是可以按照自己的要求进行更新。
我们还要考虑另外一个问题,就是有一些算法资源挖出来的特征,并不是包含了所有的信息。比如说有一些团购网站、美食介绍网站里面,会有一些位置信息,但这些是稀疏的信息,不可能按照这种固定长度,每个url都会分配一个数据块,这样会造成大量的资源浪费。所以我们这里会针对这种稀疏的属性做一个变长的数据块,但是它在结构上发生了变化,它有一个头信息。头信息主要是用来存储它在数据文件里面的位置信息,整个头信息和url列表是一一对应的,本身它里面存的就是属性信息,这样的话我们再通过他的docid直接找到他的偏移,然后通过偏移很容易找到它的属性。
倒排索引
倒排索引我们也需要考虑两个问题,第一个问题,从正排索引转化为倒排,数据量会剧增,因为我们面向的是一个word对应的doclist,doclist重复度非常高,这样的话我们就需要针对倒排索引进行一个压缩。
压缩的话我们采用的原则基本是压缩比例越多越好;解压时越快越好。这就需要对整个倒排表做一个结构化的设计。我们采取的做法是把整个倒排表划分成多个块,针对每一个块通过一些压缩算法做压缩。整个倒排表划分成块之后,检索的时候,也需要按照这种块的模式来进行解压,所以只要解压到的块能够满足用户的需求,那下面的块就不用再解压了,这样的话就能减少解压的成本。
一个用户检索的请求过来之后,我们希望检索能越快越好,所以我们希望能够提供一个范围查找。我们会设立一个段,每个段会记录每一个动态表块的最小的id和最大的id来表示范围。那这样的话我们在检索一个倒排list的过程中,就先可以先检索段,通过段找到它的在哪个块,再做检索。整个倒排索引组成了一个四级结构,第一个就是它本身的词表,第二个是段信息,第三个是倒排表,第四个是针对每个word在某个doc里面一些位置信息,这个信息主要是用来做基础相关性计算的。
04网页检索和相关性求交模型
我们下面讲一下,在检索的过程中,求交计算是怎么做的?
求交是检索一个非常核心的模块,也是对检索性能提出非常大要求的一个模块。我简单地举一个例子来给大家讲一下整个求交模块的设计。
比如用户query是由三个词来组成的,在求交过程中,首先要从这三个word中选出拉链最短的一个word。因为用最短的拉链去和其他拉链求交,会减少求交次数。
第二步,我们拿到最短拉链之后,比如现在word1的拉链是最短的,那我们会依次建立word1的倒排拉链,从倒排拉链中获得每个docid和其他倒排拉链的docid做求交计算。我拿docid=11这个来给大家解释一下求交的具体步骤。比如说倒排拉链里面有11这个word,那在倒排拉链里,我们首先要查找的是它的段信息。我们发现它是在第二个段里面,就能够很明确地知道它在word2的第二个倒排拉链的数据块,找到这个块之后,我们再做二分查找,因为我们在做索引的时候,doclist的信息有序的。做二分查找来获取它是比较稳定的。
当然我们在做二分查找的过程中,也会做一些优化处理,就是一些步长策略。什么是步长策略?我举个例子,如果我们要查找6倍的docid。如果我们只做二分查找的话,我们大概要做4次query查找才能找到这个docid。所以我们希望有些策略来补充二分查找的不足,这就是步长策略。第一步我们先做一次查找,比如查找6这个docid会分布在1到7的范围之内。然后我们会通过1和7的边界信息来进一步计算它到6的距离。通过计算我们可以看到7到6就是一个步长,而1到6是五个步长。在这种情况下我们会改变策略,也就是我们会通过一个步长就找到6这个信息。当然这是一个非常极端的例子。我想通过这个例子说明,只要距离它的边界比较近的时候,我们就会转换这种步长策略,来提升query查找的性能。
基础相关性
下面我给大家简单介绍下基础相关性。这也是整个检索的一个核心部分,对检索来说,它也是比较耗时的一个模块。相关性计算它不可能把非常多的策略相关的信息都拿来计算,这样会影响底层收集数据的性能。我们这里主要做了两个方面的工作,一是基础赋权,二是紧密度计算。
第一,基础赋权
什么是基础赋权?它是来解决query中的每一个term和它对应的文章的权重计算。
这里先介绍TF和IDF这两个概念。
TF:代表承载信息量,即这个word在文章中出现的次数;IDF:代表信息承载能力,即这个word在全网的出现次数一个技术的模型,就是TF*IDF。但是在实际的应用中不会只有这么简单,还会出现很多问题。比如一篇文章很长,那么它的TF就不会太准。现在业界也有一个模型叫BM25,它主要加入了文章长度,和这个词语的termweight的一些概念。
我们如果想达到更好的效果的话,那么就要在数据挖掘上做一些工作。比如说我们需要挖掘出每篇文章的主题、关键词,以及关键词的一些限定词这些信息,这样可以针对term做一个分级,拿到词性信息,这样可以更容易、更准确地来描述这个word对文章的权重信息。
第二,紧密度计算
所谓紧密度计算就是用户的query过来之后,针对query的分词,一是相邻word之间的紧密程度在文章中是怎样的分布;二是跨term的信息,那也就是方向的信息。
可以简单理解为我要算的就是一个距离问题。我这里列了一个简单的具体的模型。我们首先在query中选一个词作为中心点,比如B。然后我们拿text文本的位置信息减去query的位置信息,然后再通过中心点的一个计算,算出它的相对位置。比如说A这个term本身它的距离像1这个位置,当然就是说他后边A的距离在算的过程中,你会发现因为它是在B的后面,他的距离可能就会拉长,这样的话它解决的是一个方向性的问题。(参考:proximity距离)
在后面A的距离大概是4。所以针对距离变长的这种情况我们会做一些打压。基础相关性是检索的一个基础。当然在基础相关性的基础上,我们会把优质的网页集合拿到上层,上层也会做一些rank的计算。大家可能有的了解比如这种LTR模型来做一些排序的计算,当然也会有一些针对用户策略,包括用户意图的一些策略来打分。最终返回用户一个丰富的结果集。
其他相关技术点前面我基本介绍了360搜索的核心模块以及关键技术。当然搜索还涉及很多其他的技术点,比如:
时效性机群资源优化检索性能Cache系统系统稳定性大数据实时计算以上就是360搜索引擎架构的整体设计以及关键技术。
原文来自:360搜索技术团队。
信息转载自网络,更多相关信息请点击:精细搜索营销http:///wlyx/ssyx/
相关文章
-
千牛手机网页版登录怎么弄?手机千牛网页版登录步骤
下面咱们一同看一下手机上千牛网页版登陆的流程。,手机上千牛网页版登陆流程以下1、开启你手机内置的电脑浏览器,免费下载别的电脑浏览器还可以,例如uc、qq浏览器2、网页查找淘宝,会产生一个触屏版,点一下就可以。,4、点击检查淘宝主页后,拉下去留意此次要一直拉。
2024-03-14 16:32 -
店铺共有五种,苦苦的寻找推广店铺的方法,怎么用关联
那样他人点一下这个图片便会马上自动跳转到相对应的产品网页页面。,PS:此类方式不宜一般店面和扶持版店辅,由于不兼容在宝物概况加上自定操控模块!,有必要标明的好多个难题:1.相片图画处理软件我就用的【光影魔术手】,由于怕被他人说做广告,因而 沒有标出,可是过多人淘宝旺旺我问询这一,那就在这里标明一下。
2024-03-14 16:31 -
拼多多有网页版吗?网页版安全吗?
拼多多网页版虽然没有移动端应用那么快捷,但相同能够满足用户的购物需求。,例如,用户能够在电脑上更好地管理多个购物车,对比商品信息,节约购物时间。,这关于那些喜爱在拼多多上“逛逛”的用户来说,无疑增加了购物趣味。
2024-03-14 16:07 -
拼多多电脑网页版是什么?有什么用?
值得一提的是,该网页版商城界面十分简洁,并没有类似拼多多App的各种砍一刀活动,也无法进行团购,需要使用手机号登录。,截至6月18日23:59的数据显示,平台手机类目的销售额和订单量均实现翻倍增长。,在安卓手机领域,小米则继续保持领先地位,强势拿下销量、销额的双料冠军。
2024-03-13 16:32 -
拼多多网页版入口在哪里?网页版是什么样的平台?
匹配淘系新规则、人群个性化标签、多进店来路,安全稳定,支持淘宝、拼多多、京东、抖音、快手、小红书,功能强大,业界推荐首选。,网页版拼多多的页面非常之清爽,左侧为品类列表,主C位为推广banner,下方则是产品推荐。,以上就是拼多多网页版的入口,大家复制链接到浏览器,就可以访问。
2024-03-13 16:23 -
拼多多网页版登录入口网址在哪里?网页版有百亿补贴吗?
据统计,百亿补贴货物都是来自知名品牌自营等优质方式,并配套设施标准化的货运、售后服务。,大家直接复制上述网址在浏览器打开,就可以找到拼多多网页版。,相比手机端,拼多多网页版显得清爽很多,没有各种各样的助力、领红包活动。
2024-03-13 16:22 -
拼多多有没有网页版?网页版怎么打开?
现如今很多消费者都会在拼多多平台上购物,并且是以拼团的模式下单,但大多数用的是手机版本APP,就会比较疑惑拼多多到底有没有网页版本,下面就来介绍该问题。,在拼多多的网页版上,您可以进行商品搜索、浏览商品详情、下单购买、管理订单等各种操作,类似于拼多多的手机应用程序。,在商品详情页面上,您可以选择“加入购物车”或“立即购买”。
2024-03-13 15:43 -
拼多多有网页版吗?怎么在电脑上打开?
对于拼多多这样的社交电商平台而言,用户们往往更习惯使用手机App进行购物,但是否有网页版呢?本文将为您详细介绍拼多多的网页版情况。,总结来说,拼多多拥有网页版,使得用户可以在电脑上便捷地进行购物。,无论是使用手机App还是网页版,拼多多都将为用户提供便利的购物体验。
2024-03-13 15:37 -
拼多多后台网页打不开怎么办?后台有什么用?
假如发觉你再次免费下载以后或是登录不上来,那么就只有说成系统软件的难题了。,能够 将订单信息状况和顾客很便捷的相匹配起來。,如顾客不能收到快递公司,或是正中间详细地址是不是有什么问题,还可以进到订单信息的详尽网页页面开展确定下。
2024-03-13 10:57 -
抖店怎么从电脑端打开?什么方法?
作为中国领先的短视频电商平台,抖店吸引了大量用户在手机上购物和观看直播。,但是,您仍然可以在电脑上浏览商品、查看直播、下单购物等基本操作。,虽然在电脑上可能无法获得手机端的全部功能,但您仍然可以通过网页版进行基本的购物和浏览操作。
2024-03-13 18:09
热门标签
-
站长做SEO的注意了,头条搜索站长平台正式上线 如何让你的图片被搜索引擎收录,强力引流?
2024-03-21 18:08
-
一文搞懂深度优先搜索、广度优先搜索(dfs,bfs) 搜索引擎为什么不收录网站内页
2024-03-21 18:08
-
搜索引擎如何识别原创 网站被搜索引擎降权的原因
2024-03-21 18:08
-
利用Google搜索与某开放 API工具结合做免费SEO分析 robots.txt协议如何设置禁止搜索引擎抓取?
2024-03-21 18:08
-
搜索引擎抓取网站内容的原理 搜索引擎如何识别原创
2024-03-21 18:08
-
百度搜索引擎原理一,抓取建库,Spider抓取系统的基本框架 使用vue后怎么针对搜索引擎做SEO优化?
2024-03-21 18:08
-
常用搜索引擎/网址导航/网站目录网站收录提交入口收藏 百度搜索飓风3.0后的变化
2024-03-21 18:08
-
2020年搜索优化方向 2019年中国搜索引擎市场份额排行榜
2024-03-21 18:08
-
百度搜索引擎核心专利 拼多多搜索排名底层逻辑算法
2024-03-21 18:08
-
头条搜索投放方法论 企业如何解决搜索引擎中出现的负面信息?
2024-03-21 18:08
-
57个用于搜索引擎优化的小技巧 流量生态矩阵:搜索引擎的流量突围之战
2024-03-21 18:08
-
搜索引擎技术之倒排索引原理详解,及案例分析 Google SEO 系列 - 搜索引擎原理
2024-03-21 18:08
-
头条搜索之站长平台索引量介绍,与2个常见问题 用Python和OpenCV构建属于自己的图像搜索引擎
2024-03-21 18:08
-
如何成为百度搜索的精选摘要? 关注搜索算法 外链的重要性不再
2024-03-21 18:08
-
世界那么大,何必用百度?搜索引擎汇总,总有一款适合你 SEO优化师,不会告诉你的谷歌搜索引擎规则
2024-03-21 18:08
-
搜索引擎各大站长平台汇总 搜索引擎讨厌的网站
2024-03-21 18:08
-
SEO优化中品牌词负面信息压制方法 什么是搜索引擎本地算法,它对SEO有那些影响?
2024-03-21 18:08
-
Tag标签使用在seo优化中的作用 优化SEO博客帖子的6种方法
2024-03-21 18:08
-
什么是SEO地域性排名 SEO算法演变与破解
2024-03-21 18:08
-
2019年SEO内部链接终极指南 优质锚文本链接对网站SEO还有这些好处
2024-03-21 18:08