如何提高iis7服务器的同时请求数
要提高iis7服务器的同时请求数,可以按如下方法设置(下面以支持同时10万个请求为例):
1 调整IIS7应用程序池队列长度
由原来的默认1000改为65535。
IIS Manager > ApplicationPools > Advanced Settings > Queue Length : 65535
2 调整IIS7的appConcurrentRequestLimit设置
由原来的默认5000改为100000。
c:\windows\system32\inetsrv\appcmdexe set config /section:serverRuntime /appConcurrentRequestLimit:100000
在%systemroot%\System32\inetsrv\config\applicationHostconfig中可以查看到该设置
3 调整machineconfig中的processModel > requestQueueLimit的设置
由原来的默认5000改为100000。
<processModel requestQueueLimit="100000"/>
4 修改注册表,调整IIS 7支持的同时TCPIP连接数
由原来的默认5000改为100000
reg add HKLM\System\CurrentControlSet\Services\HTTP\Parameteris /v MaxConnections /t REG_DWORD /d 100000
一、消息队列概述\x0d\ 消息队列中间件是分布式系统中重要的组件,主要解决应用耦合,异步消息,流量削锋等问题。实现高性能,高可用,可伸缩和最终一致性架构。是大型分布式系统不可缺少的中间件。\x0d\ 目前在生产环境,使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等。\x0d\ 二、消息队列应用场景\x0d\ 以下介绍消息队列在实际应用中常用的使用场景。异步处理,应用解耦,流量削锋和消息通讯四个场景。\x0d\ 21异步处理\x0d\ 场景说明:用户注册后,需要发注册邮件和注册短信。传统的做法有两种1串行的方式;2并行方式。\x0d\ (1)串行方式:将注册信息写入数据库成功后,发送注册邮件,再发送注册短信。以上三个任务全部完成后,返回给客户端。(架构KKQ:466097527,欢迎加入)\x0d\ (2)并行方式:将注册信息写入数据库成功后,发送注册邮件的同时,发送注册短信。以上三个任务完成后,返回给客户端。与串行的差别是,并行的方式可以提高处理的时间。\x0d\ 假设三个业务节点每个使用50毫秒钟,不考虑网络等其他开销,则串行方式的时间是150毫秒,并行的时间可能是100毫秒。\x0d\ 因为CPU在单位时间内处理的请求数是一定的,假设CPU1秒内吞吐量是100次。则串行方式1秒内CPU可处理的请求量是7次(1000/150)。并行方式处理的请求量是10次(1000/100)。\x0d\ 小结:如以上案例描述,传统的方式系统的性能(并发量,吞吐量,响应时间)会有瓶颈。如何解决这个问题呢?\x0d\ 引入消息队列,将不是必须的业务逻辑,异步处理。改造后的架构如下:\x0d\ 按照以上约定,用户的响应时间相当于是注册信息写入数据库的时间,也就是50毫秒。注册邮件,发送短信写入消息队列后,直接返回,因此写入消息队列的速度很快,基本可以忽略,因此用户的响应时间可能是50毫秒。因此架构改变后,系统的吞吐量提高到每秒20 QPS。比串行提高了3倍,比并行提高了两倍。\x0d\ 22应用解耦\x0d\ 场景说明:用户下单后,订单系统需要通知库存系统。传统的做法是,订单系统调用库存系统的接口。如下图:\x0d\ 传统模式的缺点:\x0d\ 1) 假如库存系统无法访问,则订单减库存将失败,从而导致订单失败;\x0d\ 2) 订单系统与库存系统耦合;\x0d\ 如何解决以上问题呢?引入应用消息队列后的方案,如下图:\x0d\ 订单系统:用户下单后,订单系统完成持久化处理,将消息写入消息队列,返回用户订单下单成功。\x0d\ 库存系统:订阅下单的消息,采用拉/推的方式,获取下单信息,库存系统根据下单信息,进行库存操作。\x0d\ 假如:在下单时库存系统不能正常使用。也不影响正常下单,因为下单后,订单系统写入消息队列就不再关心其他的后续操作了。实现订单系统与库存系统的应用解耦。\x0d\ 23流量削锋\x0d\ 流量削锋也是消息队列中的常用场景,一般在秒杀或团抢活动中使用广泛。\x0d\ 应用场景:秒杀活动,一般会因为流量过大,导致流量暴增,应用挂掉。为解决这个问题,一般需要在应用前端加入消息队列。\x0d\ 可以控制活动的人数;\x0d\ 可以缓解短时间内高流量压垮应用;\x0d\ 用户的请求,服务器接收后,首先写入消息队列。假如消息队列长度超过最大数量,则直接抛弃用户请求或跳转到错误页面;\x0d\ 秒杀业务根据消息队列中的请求信息,再做后续处理。\x0d\ 24日志处理\x0d\ 日志处理是指将消息队列用在日志处理中,比如Kafka的应用,解决大量日志传输的问题。架构简化如下:\x0d\ 日志采集客户端,负责日志数据采集,定时写受写入Kafka队列;\x0d\ Kafka消息队列,负责日志数据的接收,存储和转发;\x0d\ 日志处理应用:订阅并消费kafka队列中的日志数据;\x0d\ 以下是新浪kafka日志处理应用案例:\x0d\ (1)Kafka:接收用户日志的消息队列。\x0d\ (2)Logstash:做日志解析,统一成JSON输出给Elasticsearch。\x0d\ (3)Elasticsearch:实时日志分析服务的核心技术,一个schemaless,实时的数据存储服务,通过index组织数据,兼具强大的搜索和统计功能。\x0d\ (4)Kibana:基于Elasticsearch的数据可视化组件,超强的数据可视化能力是众多公司选择ELK stack的重要原因。\x0d\ 25消息通讯\x0d\ 消息通讯是指,消息队列一般都内置了高效的通信机制,因此也可以用在纯的消息通讯。比如实现点对点消息队列,或者聊天室等。\x0d\ 点对点通讯:\x0d\ 客户端A和客户端B使用同一队列,进行消息通讯。\x0d\ 聊天室通讯:\x0d\ 客户端A,客户端B,客户端N订阅同一主题,进行消息发布和接收。实现类似聊天室效果。\x0d\ 以上实际是消息队列的两种消息模式,点对点或发布订阅模式。模型为示意图,供参考。\x0d\ 三、消息中间件示例\x0d\ 31电商系统\x0d\ 消息队列采用高可用,可持久化的消息中间件。比如Active MQ,Rabbit MQ,Rocket Mq。(1)应用将主干逻辑处理完成后,写入消息队列。消息发送是否成功可以开启消息的确认模式。(消息队列返回消息接收成功状态后,应用再返回,这样保障消息的完整性)\x0d\ (2)扩展流程(发短信,配送处理)订阅队列消息。采用推或拉的方式获取消息并处理。\x0d\ (3)消息将应用解耦的同时,带来了数据一致性问题,可以采用最终一致性方式解决。比如主数据写入数据库,扩展应用根据消息队列,并结合数据库方式实现基于消息队列的后续处理。\x0d\ 32日志收集系统\x0d\ 分为Zookeeper注册中心,日志收集客户端,Kafka集群和Storm集群(OtherApp)四部分组成。\x0d\ Zookeeper注册中心,提出负载均衡和地址查找服务;\x0d\ 日志收集客户端,用于采集应用系统的日志,并将数据推送到kafka队列;\x0d\ 四、JMS消息服务\x0d\ 讲消息队列就不得不提JMS 。JMS(Java Message Service,Java消息服务)API是一个消息服务的标准/规范,允许应用程序组件基于JavaEE平台创建、发送、接收和读取消息。它使分布式通信耦合度更低,消息服务更加可靠以及异步性。\x0d\ 在EJB架构中,有消息bean可以无缝的与JM消息服务集成。在J2EE架构模式中,有消息服务者模式,用于实现消息与应用直接的解耦。\x0d\ 41消息模型\x0d\ 在JMS标准中,有两种消息模型P2P(Point to Point),Publish/Subscribe(Pub/Sub)。\x0d\ 411 P2P模式\x0d\ P2P模式包含三个角色:消息队列(Queue),发送者(Sender),接收者(Receiver)。每个消息都被发送到一个特定的队列,接收者从队列中获取消息。队列保留着消息,直到他们被消费或超时。\x0d\ P2P的特点\x0d\ 每个消息只有一个消费者(Consumer)(即一旦被消费,消息就不再在消息队列中)\x0d\ 发送者和接收者之间在时间上没有依赖性,也就是说当发送者发送了消息之后,不管接收者有没有正在运行,它不会影响到消息被发送到队列\x0d\ 接收者在成功接收消息之后需向队列应答成功\x0d\ 如果希望发送的每个消息都会被成功处理的话,那么需要P2P模式。(架构KKQ:466097527,欢迎加入)\x0d\ 412 Pub/sub模式\x0d\ 包含三个角色主题(Topic),发布者(Publisher),订阅者(Subscriber) 。多个发布者将消息发送到Topic,系统将这些消息传递给多个订阅者。\x0d\ Pub/Sub的特点\x0d\ 每个消息可以有多个消费者\x0d\ 发布者和订阅者之间有时间上的依赖性。针对某个主题(Topic)的订阅者,它必须创建一个订阅者之后,才能消费发布者的消息。\x0d\ 为了消费消息,订阅者必须保持运行的状态。\x0d\ 为了缓和这样严格的时间相关性,JMS允许订阅者创建一个可持久化的订阅。这样,即使订阅者没有被激活(运行),它也能接收到发布者的消息。\x0d\ 如果希望发送的消息可以不被做任何处理、或者只被一个消息者处理、或者可以被多个消费者处理的话,那么可以采用Pub/Sub模型。\x0d\ 42消息消费\x0d\ 在JMS中,消息的产生和消费都是异步的。对于消费来说,JMS的消息者可以通过两种方式来消费消息。\x0d\ (1)同步\x0d\ 订阅者或接收者通过receive方法来接收消息,receive方法在接收到消息之前(或超时之前)将一直阻塞;\x0d\ (2)异步\x0d\ 订阅者或接收者可以注册为一个消息监听器。当消息到达之后,系统自动调用监听器的onMessage方法。\x0d\ JNDI:Java命名和目录接口,是一种标准的Java命名系统接口。可以在网络上查找和访问服务。通过指定一个资源名称,该名称对应于数据库或命名服务中的一个记录,同时返回资源连接建立所必须的信息。\x0d\ JNDI在JMS中起到查找和访问发送目标或消息来源的作用。(架构KKQ:466097527,欢迎加入)\x0d\ 43JMS编程模型\x0d\ (1) ConnectionFactory\x0d\ 创建Connection对象的工厂,针对两种不同的jms消息模型,分别有QueueConnectionFactory和TopicConnectionFactory两种。可以通过JNDI来查找ConnectionFactory对象。\x0d\ (2) Destination\x0d\ Destination的意思是消息生产者的消息发送目标或者说消息消费者的消息来源。对于消息生产者来说,它的Destination是某个队列(Queue)或某个主题(Topic);对于消息消费者来说,它的Destination也是某个队列或主题(即消息来源)。\x0d\ 所以,Destination实际上就是两种类型的对象:Queue、Topic可以通过JNDI来查找Destination。\x0d\ (3) Connection\x0d\ Connection表示在客户端和JMS系统之间建立的链接(对TCP/IP socket的包装)。Connection可以产生一个或多个Session。跟ConnectionFactory一样,Connection也有两种类型:QueueConnection和TopicConnection。\x0d\ (4) Session\x0d\ Session是操作消息的接口。可以通过session创建生产者、消费者、消息等。Session提供了事务的功能。当需要使用session发送/接收多个消息时,可以将这些发送/接收动作放到一个事务中。同样,也分QueueSession和TopicSession。\x0d\ (5) 消息的生产者\x0d\ 消息生产者由Session创建,并用于将消息发送到Destination。同样,消息生产者分两种类型:QueueSender和TopicPublisher。可以调用消息生产者的方法(send或publish方法)发送消息。\x0d\ (6) 消息消费者\x0d\ 消息消费者由Session创建,用于接收被发送到Destination的消息。两种类型:QueueReceiver和TopicSubscriber。可分别通过session的createReceiver(Queue)或createSubscriber(Topic)来创建。当然,也可以session的creatDurableSubscriber方法来创建持久化的订阅者。\x0d\ (7) MessageListener\x0d\ 消息监听器。如果注册了消息监听器,一旦消息到达,将自动调用监听器的onMessage方法。EJB中的MDB(Message-Driven Bean)就是一种MessageListener。\x0d\ 深入学习JMS对掌握JAVA架构,EJB架构有很好的帮助,消息中间件也是大型分布式系统必须的组件。本次分享主要做全局性介绍,具体的深入需要大家学习,实践,总结,领会。\x0d\ 五、常用消息队列\x0d\ 一般商用的容器,比如WebLogic,JBoss,都支持JMS标准,开发上很方便。但免费的比如Tomcat,Jetty等则需要使用第三方的消息中间件。本部分内容介绍常用的消息中间件(Active MQ,Rabbit MQ,Zero MQ,Kafka)以及他们的特点。\x0d\ 51 ActiveMQ\x0d\ ActiveMQ 是Apache出品,最流行的,能力强劲的开源消息总线。ActiveMQ 是一个完全支持JMS11和J2EE 14规范的 JMS Provider实现,尽管JMS规范出台已经是很久的事情了,但是JMS在当今的J2EE应用中间仍然扮演着特殊的地位。\x0d\ ActiveMQ特性如下:\x0d\ ⒈ 多种语言和协议编写客户端。语言: Java,C,C++,C#,Ruby,Perl,Python,PHP。应用协议: OpenWire,Stomp REST,WS Notification,XMPP,AMQP\x0d\ ⒉ 完全支持JMS11和J2EE 14规范 (持久化,XA消息,事务)\x0d\ ⒊ 对spring的支持,ActiveMQ可以很容易内嵌到使用Spring的系统里面去,而且也支持Spring20的特性\x0d\ ⒋ 通过了常见J2EE服务器(如 Geronimo,JBoss 4,GlassFish,WebLogic)的测试,其中通过JCA 15 resource adaptors的配置,可以让ActiveMQ可以自动的部署到任何兼容J2EE 14 商业服务器上\x0d\ ⒌ 支持多种传送协议:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA\x0d\ ⒍ 支持通过JDBC和journal提供高速的消息持久化\x0d\ ⒎ 从设计上保证了高性能的集群,客户端-服务器,点对点\x0d\ ⒏ 支持Ajax\x0d\ ⒐ 支持与Axis的整合\x0d\ ⒑ 可以很容易得调用内嵌JMS provider,进行测试\x0d\ 52 RabbitMQ\x0d\ RabbitMQ是流行的开源消息队列系统,用erlang语言开发。RabbitMQ是AMQP(高级消息队列协议)的标准实现。支持多种客户端,如:Python、Ruby、NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持AJAX,持久化。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。\x0d\ 几个重要概念:\x0d\ Broker:简单来说就是消息队列服务器实体。\x0d\ Exchange:消息交换机,它指定消息按什么规则,路由到哪个队列。\x0d\ Queue:消息队列载体,每个消息都会被投入到一个或多个队列。\x0d\ Binding:绑定,它的作用就是把exchange和queue按照路由规则绑定起来。\x0d\ Routing Key:路由关键字,exchange根据这个关键字进行消息投递。\x0d\ vhost:虚拟主机,一个broker里可以开设多个vhost,用作不同用户的权限分离。\x0d\ producer:消息生产者,就是投递消息的程序。\x0d\ consumer:消息消费者,就是接受消息的程序。\x0d\ channel:消息通道,在客户端的每个连接里,可建立多个channel,每个channel代表一个会话任务。\x0d\ 消息队列的使用过程,如下:\x0d\ (1)客户端连接到消息队列服务器,打开一个channel。\x0d\ (2)客户端声明一个exchange,并设置相关属性。\x0d\ (3)客户端声明一个queue,并设置相关属性。\x0d\ (4)客户端使用routing key,在exchange和queue之间建立好绑定关系。\x0d\ (5)客户端投递消息到exchange。\x0d\ exchange接收到消息后,就根据消息的key和已经设置的binding,进行消息路由,将消息投递到一个或多个队列里。\x0d\ 53 ZeroMQ\x0d\ 号称史上最快的消息队列,它实际类似于Socket的一系列接口,他跟Socket的区别是:普通的socket是端到端的(1:1的关系),而ZMQ却是可以N:M 的关系,人们对BSD套接字的了解较多的是点对点的连接,点对点连接需要显式地建立连接、销毁连接、选择协议(TCP/UDP)和处理错误等,而ZMQ屏蔽了这些细节,让你的网络编程更为简单。ZMQ用于node与node间的通信,node可以是主机或者是进程。\x0d\ 引用官方的说法: “ZMQ(以下ZeroMQ简称ZMQ)是一个简单好用的传输层,像框架一样的一个socket library,他使得Socket编程更加简单、简洁和性能更高。是一个消息处理队列库,可在多个线程、内核和主机盒之间弹性伸缩。ZMQ的明确目标是“成为标准网络协议栈的一部分,之后进入Linux内核”。现在还未看到它们的成功。但是,它无疑是极具前景的、并且是人们更加需要的“传统”BSD套接字之上的一 层封装。ZMQ让编写高性能网络应用程序极为简单和有趣。”\x0d\ 特点是:\x0d\ 高性能,非持久化;\x0d\ 跨平台:支持Linux、Windows、OS X等。\x0d\ 多语言支持; C、C++、Java、NET、Python等30多种开发语言。\x0d\ 可单独部署或集成到应用中使用;\x0d\ 可作为Socket通信库使用。\x0d\ 与RabbitMQ相比,ZMQ并不像是一个传统意义上的消息队列服务器,事实上,它也根本不是一个服务器,更像一个底层的网络通讯库,在Socket API之上做了一层封装,将网络通讯、进程通讯和线程通讯抽象为统一的API接口。支持“Request-Reply “,”Publisher-Subscriber“,”Parallel Pipeline”三种基本模型和扩展模型。\x0d\ ZeroMQ高性能设计要点:\x0d\ 1、无锁的队列模型\x0d\ 对于跨线程间的交互(用户端和session)之间的数据交换通道pipe,采用无锁的队列算法CAS;在pipe两端注册有异步事件,在读或者写消息到pipe的时,会自动触发读写事件。\x0d\ 2、批量处理的算法\x0d\ 对于传统的消息处理,每个消息在发送和接收的时候,都需要系统的调用,这样对于大量的消息,系统的开销比较大,zeroMQ对于批量的消息,进行了适应性的优化,可以批量的接收和发送消息。\x0d\ 3、多核下的线程绑定,无须CPU切换\x0d\ 区别于传统的多线程并发模式,信号量或者临界区, zeroMQ充分利用多核的优势,每个核绑定运行一个工作者线程,避免多线程之间的CPU切换开销。\x0d\ 54 Kafka\x0d\ Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。\x0d\ Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:\x0d\ 通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。(文件追加的方式写入数据,过期的数据定期删除)\x0d\ 高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。\x0d\ 支持通过Kafka服务器和消费机集群来分区消息。\x0d\ 支持Hadoop并行数据加载。\x0d\ Kafka相关概念\x0d\ Broker\x0d\ Kafka集群包含一个或多个服务器,这种服务器被称为broker[5]\x0d\ Topic\x0d\ 每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)\x0d\ Partition\x0d\ Parition是物理上的概念,每个Topic包含一个或多个Partition\x0d\ Producer\x0d\ 负责发布消息到Kafka broker\x0d\ Consumer\x0d\ 消息消费者,向Kafka broker读取消息的客户端。\x0d\ Consumer Group\x0d\ 每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)。\x0d\ 一般应用在大数据日志处理或对实时性(少量延迟),可靠性(少量丢数据)要求稍低的场景使用。
okhttp是square公司贡献的一个处理网络请求的开源框架,是目前Android开发使用最广泛的一个网络框架,从Android44开始,httpURLconnection的底层实现采用的就是okhttp。内部实现就是利用java基础,对socket进行封装,实现http通信。最重要的两个关键点就是分发器和5个拦截器。
分发器 就是内部维护队列和线程池,完成请求分配,总结就是用于对异步任务加入队列管理,然后判断条件,控制数量,加入线程池执行异步请求任务。
五个默认拦截器 就是利用责任链模式对网络请求进行层层处理,完成整个请求过程,简单总结如下。
1桥接拦截器对用户发出的请求添加缺少的请求配置字段,比如keep-alive等
2缓存拦截器就是查询有没有符合判断条件的已缓存的网络请求,执行复用,直接返回response
3连接拦截器就是创建请求,加入连接器 或者访问连接池,根据条件判断,是否能怼已创建的tcp请求进行复用
4请求服务器拦截器就是对scoket进行操作,请求网络访问服务器,返回response,
5重试和重定向拦截器就是对返回的response进行code判断,决定是否要重试或者重定向操作。
1支持http20版本,并且允许对同一主机的所有请求共享一个套接字
2即使不是http20版本,通过连接池,减少请求延迟
3默认使用Gzip 压缩数据
4响应缓存,避免重复请求网络
最简单的http请求案例
1利用建造者模式构建okHttpClient实例对象,构建过程中可以动态配置参数,请求时间,响应时间,缓存信息等。
2创建Request对象,设置请求方式,链接地址,参数等信息。
3把request对象,传给client,通过newCall函数,得到RealCall对象。
4RealCall 分为同步和异步执行
5同步执行时,分发器只是做个记录,把请求任务加到队列中,然后直接通过拦截器访问服务器,返回response。
6异步执行
61先对异步任务进一步封装,把任务放到AsyncCall对象中
2分发器 把 封装后的异步任务 添加到等待运行的队列中
7getResponseWithInterceptorChain 通过拦截器,获取response
okhttp 默认提供5个拦截器 重试重定向拦截器,桥接拦截器,缓存拦截器,连接拦截器,访问服务器拦截器。还可以自定义拦截器。
自定义拦截器分为应用拦截器(通过addInterceptor 添加)和网络拦截器(通过addNetworkInterceptor拦截)
拦截器采用责任链的设计默认,让请求者和处理者解耦,最终请求从前往后,响应从后往前。
首先先判断用户是否取消了请求,如果没有取消,就把请求交个桥接拦截器。
在获得响应结果response的时候根据响应码,判断是否需要重试或者重定向, 重试不限制次数,重定向最多20次 ,如果需要重试或者重定向,那么会再一次重新执行所有拦截器。
有如下几种情况不会重试:IO异常,线路异常,配置client实例时配置不允许重试,协议异常,证书异常等等。
先获取用户发送的请求,判断条件用户是否已经配置过请求头字段,若用户没有配置,则将http协议必备的请求头字段补齐,比如Content-Type,Content-Length等,然后交给下一个拦截器。
在获得响应结果response之后,调用保存cookie的接口(也可以在配置client的时候,设置cookjar进行cookie回调数据),并且解析gzip数据
获取结果之后,对cookie进行保存,对返回的数据进行gzip解压
就是根据缓存策略从缓存中查找是否有合适的缓存response,如果有合适的缓存,直接返回给请求任务,不在继续执行后面的拦截器。
获得响应结果response后,根据条件判断,决定是否要缓存。
维护一个连接池,负责对连接的服务。在把请求交给下一个拦截器之前。会先在连接池中找到一个合适的连接(满足适配条件相同,并且没有正在被使用)或者新建一个连接,并且接入连接池,获得对应的socket流,把请求交给下一个拦截器。获得response结果后不会进行额外的处理。
连接池, 也称之为对象池,主要用来存放request请求连接,内部维护了一个LinkedQueue队列用来存放请求。在添加新的请求对象时,都会执行一个周期性任务,用以对连接池进行清理操作。
1队列长度超过5,清理最近未被使用连接,LRE算法
2存储的连接,5分钟未被复用,清理
拿到上一个拦截器返回的请求,真正的与服务器进行通信,向服务器发送数据,解析读取响应的数据,返回给上一个拦截器。
1创建request =>OkHttpClient=>RealCall()
2同步执行 ,分发器添加同步任务,执行拦截器,访问服务器,返回reponse,触发异步分发流程。
3异步执行 ,封装任务= >AsyncCall ,实现runnable接口。添加任务到异步任务等待队列,执行分发任务,判断异步任务是否能加入正在执行的异步任务队列,满足两个条件
同时执行的异步任务数量不得大于64个
对同一个主机的访问任务,最多不得大于5个
4加入正在执行的异步任务队列,通过线程池执行任务,经过5个默认拦截器访问服务器,返回response,执行异步任务分发。
分发器工作 分为同步任务和异步任务两种
同步任务 就是把任务加入同步任务队列,加个标记,执行结束之后,触发异步任务的分发操作。
异步任务 先封装任务到asyncCall对象,实现了runnable接口。把任务加入等待执行队列,执行分发操作。
先遍历等待任务队列,判断是否符合加入正在运行的异步任务队列,要同时满足两个条件。
同时执行的异步任务数量不得大于64个
对同一个主机的访问任务,最多不得大于5个
当满足条件后,从等待队列中删除任务,把任务加入正在执行的队列中,通过自定义的线程池,执行任务,任务执行结束后,再次执行分发操作。
拦截器采用了责任链设计默认,让请求者和执行者解耦,请求者只需要将请求发给责任链即可,无需关心请求过程和细节。okHttp 默认有5个拦截器,重试重定向拦截器,桥接拦截器,缓存拦截器,连接拦截器,请求服务拦截器。工作细节参考上面拦截器原理分析部分
1位置的关系,应用拦截器 放在责任链最顶端,网络拦截器放在责任链倒数第二的位置。所以应用拦截器 最先拦截,最后响应,网络拦截器 倒数第二拦截,第二响应。如果打印请求日志的情况,应用拦截器打印的是用户请求信息,经过重试重定向,桥接,缓存,链接 等拦截器的层层包装,网络拦截器打印的是实际请求的信息。
2应用拦截器一定会被执行,网络拦截器不一定被执行。
利用连接池,缓存所有的有效连接对象。
清理机制:垃圾连接
1超过5分钟没有用过的链接
2超过5个闲置链接后,从最久闲置的链接开始执行清理(LRU)
Get:是以实体的方式得到由请求URI所指定资源的信息,如果请求URI只是一个数据产生过程,那么最终要在响应实体中返回的是处理过程的结果所指向的资源,而不是处理过程的描述。
Post:用来向目的服务器发出请求,要求它接受被附在请求后的实体,并把它当作请求队列中请求URI所指定资源的附加新子项,Post被设计成用统一的方法实现下列功能:
1:对现有资源的解释
2:向电子公告栏、新闻组、邮件列表或类似讨论组发信息。
3:提交数据块
4:通过附加操作来扩展数据库
从上面描述可以看出,Get是向服务器发索取数据的一种请求;而Post是向服务器提交数据的一种请求,要提交的数据位于信息头后面的实体中。
tomcat、gunicorn、uwsgi在大量并发时,遇到普遍的问题是502 504问题;
说到502,我们知道后端处理过慢需要扩展worker;
说到504,我们知道处理超时,一般调整timeout就可以;
那么502,504问题的根本原因是什么?
socket 内部是有两个队列,一个syn队列,一个是accept队列,这两个队列都在accept()之间就有了。 backlog是syn和accept队列之和。当后端处理不及时,backlog又到限制时,会出现502,也就是说新的客户端不能建立,因为没有syn的槽位供你三次握手。 504 的话,处理超时,中断处理,直接返回错误信息。
A。我输入网址按回车后,却显示找不到服务器,而我再按一下“刷新”,便可以打开了
原因可能如下:
1、网络环境不够好(自身网络、接入商)
2、使用了代理服务器,代理服务器周边相关因素(网络环境,请求队列等)都会直接影响到你,如果是建议去掉
3、除非你本地的DNS太不稳定,否则建议你使用你当地的DNS上网
4、将浏览器缓存清空(工具->internet选项->删除文件,并检查“删除文件”右边设置中的选项)
综合\"上QQ时,要等很久才能登陆上\"这条线索,我觉你应该在上面所述A项中的1、2、3条中找原因
0条评论