A.在大小适中的Amazon EC2上创建一个Elasticsearch服务器,其中应具有2 TB的Amazon EBS和用于Web应用程序的公共AWS Elastic Beanstalk环境。暂停数据源,从本地导出Elasticsearch索引,然后导入EC2 Elasticsearch服务器。将数据源提要移动到新的Elasticsearch服务器,并将用户移动到Web应用程序
B.为Elasticsearch创建Amazon ES集群,为Web应用程序创建公共AWS Elastic Beanstalk环境。使用AWS DMS复制Elasticsearch数据。复制完成后,将数据源提要移动到新的Amazon ES集群终端节点,并将用户移动到新的Web应用程序
C.使用AWS SMS将虚拟机复制到AWS中。迁移完成后,暂停数据源提要并启动已迁移的Elasticsearch和Web应用程序实例。将Web应用程序实例放置在公共Elastic Load Balancer后面。将数据源提要移动到新的Elasticsearch服务器,并将用户移动到新的Web应用程序负载均衡器
D.为Elasticsearch创建Amazon ES集群,为Web应用程序创建公共AWS Elastic Beanstalk环境。暂停数据源提要,从内部导出Elasticsearch索引,然后导入到Amazon ES集群中。将数据源提要移动到新的Amazon ES集群终端节点,并将用户移动到新的Web应用程序
您可能感兴趣的试卷
你可能感兴趣的试题
A.使用AWS Lambda函数将现有EC2实例迁移到无服务器部署
B.将经典负载均衡器更改为应用程序负载均衡器
C.在Auto Scaling组中用m4.large实例替换应用程序层
D.用4个m4.2xlarge实例替换应用程序层
A.具有Memcached引擎的Amazon ElastiCache
B.亚马逊S3
C.Amazon RDS MySQL
D.带有Redis引擎的Amazon ElastiCache
A.开发一个Python脚本以实时使Amazon EC2中的数据失败,并将数据存储在Amazon S3中。使用复制命令将数据从Amazon S3复制到Amazon Redshift。将在Amazon EC2上运行的商业智能工具连接到Amazon Redshift并创建可视化
B.使用在Auto Scaling组的EC2实例上运行的Amazon Kinesis代理来收集数据并将其发送到Amazon Kinesis Data Forehose交付流。 Kinesis Data Firehose交付流将直接将数据交付给Amazon ES。使用Kibana可视化数据
C.使用在Amazon EBS优化的EC2实例上运行的内存中缓存应用程序来近乎实时地捕获日志数据。在同一EC2实例上安装Amazon ES集群,以存储将日志文件近乎实时地交付到Amazon EC2的日志文件。安装一个Kibana插件来创建可视化
D.使用在EC2实例上运行的Amazon Kinesis代理收集数据并将其发送到Amazon Kinesis Data Firehose交付流。 Kinesis Data Firehose交付流会将数据交付给Amazon S3。使用AWS Lambda函数将数据从Amazon S3传递到Amazon ES。使用Kibana可视化数据
A.给s3添加具有“允许”效果的CreateBucket
B.从OU中删除帐户,并将SCP直接附加到帐户1111-1111-1111
C.指示开发人员向其IAM实体添加Amazon S3权限
D.从帐户1111-1111-1111中删除SCP
A.使用AWS Application Discovery Service并将数据收集代理部署到数据中心中的每个虚拟机
B.在本地环境中的所有服务器上配置Amazon CloudWatch代理,并将指标发布到Amazon CloudWatch Logs
C.使用AWS Application Discovery Service并在现有的虚拟化环境中启用无代理发现
D.在AWS管理控制台中启用AWS Application Discovery服务,并将公司防火墙配置为允许通过VPN进行扫描
A.一个子网的网络ACL阻止出站Web流量。打开网络ACL,并防止管理员将来通过IAM进行更改
B.故障是在第三方环境中。请与提供地图的第三方联系,并请求修复程序以延长正常运行时间
C.一个NAT实例已变得超载。将两个EC2 NAT实例替换为更大的实例,并确保在增加新实例大小时考虑到增长
D.其中一个NAT实例失败。建议用NAT网关替换EC2 NAT实例
A.使用Amazon Route 53重定向到新环境
B.选择交换环境URL选项
C.替换Auto Scaling启动配置
D.更新DNS记录以指向绿色环境
A.订购一个AWS Snowball设备并使用AWS DMS复制数据库。如果数据库在Amazon 3中可用,请使用AWS DMS将其加载到Amazon RDS,并配置作业以在转换之前同步更改。
B.创建一个AWS DMS作业,以将数据从本地连续复制到AWS。数据同步后切换到Amazon RDS
C.订购一个AWS Snowball设备并将数据库转储复制到该设备。将数据复制到Amazon S3之后,将其导入到Amazon RDS实例。设置VPN上的日志传送,以在切换前同步更改。
D.订购AWS Snowball设备并使用AWS Schema Conversion Tool复制数据库。当数据在Amazon S3中可用时,请使用AWS DMS将其加载到Amazon RDS,并配置作业以在转换之前同步更改
A.使用一个AWS Lambda任务创建一个Amazon API Gateway来处理入站请求,该任务执行多个步骤并以批准状态拒绝JSON对象。打开一个支持案例以增加并发Lambda数的限制,以便为由于新应用程序而导致的突发事件留出空间
B.在目标组中的Amazon EC2专用实例上创建具有Amazon ECS集群的Application Load Balancer,以处理传入请求。使用Auto Scaling可根据平均CPU使用率来扩展/扩展群集。部署处理所有批准步骤并返回带有批准状态的JSON对象的Web服务
C.在专用实例上的Amazon EC2上部署应用程序。在Auto Scaling组中的应用程序服务器场前面使用Elastic Load Balancer来处理传入的请求。在测量单个实例的容量之后,基于自定义的Am azon CloudWatch指标针对每秒的入站请求数进行扩展
D.创建一个Amazon API Gateway,以使用一系列AWS Lambda流程处理入站请求,每个流程都有一个Amazon SQS输入队列。每一步完成时,它会将结果写入下一步的队列。最后一步返回带有批准状态的JSON对象。打开一个支持案例以增加并发Lambda数的限制,以便为由于新应用程序而导致的突发事件留出空间
A.将出价发布到Kinesis Data Streams时,重构Web应用程序以使用Amazon Kinesis Producer库(KPL)。重构出价处理器,以将Kinesis数据流中的每个记录标记为未读,处理和处理。在每次投标处理运行开始时,扫描Kinesis数据流以查找未处理的记录
B.重构Web应用程序,以将每个传入的出价发布到Amazon SNS主题上,代替Kinesis Data Streams。配置SNS主题以触发AWS Lambda函数,该函数会在用户提交出价后立即对其进行处理
C.重构Web应用程序以将每个传入的出价发布到Amazon SQS FIFO队列中,以代替Kinesis Data Streams。重构出价处理器以连续地SQS队列。将出价处理EC2实例放置在Auto Scaling组中,最小和最大大小为1
D.从t2切换EC2实例类型。大到较大的一般计算实例类型。根据Kinesis Data Streams中的“传入记录”度量标准,将出价处理器EC2实例放入一个Auto Scaling组中,该组可以扩展运行出价处理器的EC2实例的数量
最新试题
以下哪些是AWS Global Accelerator的好处()
哪个AWS云架构原则规定系统应该减少相互依赖()
一家公司希望调整其基础设施的规模以控制成本,公司应该在哪些时候调整规模()
一家公司使用Amazon EC2基础设施来托管稳态工作负载,并且需要实现显着的成本节约。公司应该选择哪种EC2实例定价模型()
某公司通过生成报表增加Amazon RDS数据库实例的负载,公司如何降低数据库实例的负载()
哪些陈述代表了AWS云的成本效益()
以下哪些描述了在AWS Cloud中构建敏捷性的好处()
AWS云提供什么来提高客户的执行速度和敏捷性()
IT部门提供的服务器数量多于运行工作负载所需的数量,哪种云架构设计原则支持改变这种方法()
AWS Organizations内的整合账单如何帮助降低整体月度开支()