英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:


请选择你想看的字典辞典:
单词字典翻译
Cohering查看 Cohering 在百度字典中的解释百度英翻中〔查看〕
Cohering查看 Cohering 在Google字典中的解释Google英翻中〔查看〕
Cohering查看 Cohering 在Yahoo字典中的解释Yahoo英翻中〔查看〕





安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • Spark 2. 2. x 中文官方参考文档
    Spark 2 2 x 中文官方参考文档 ¶ 编程指南 ¶ 快速入门 使用 Spark Shell 进行交互式分析 基础知识 更多 Dataset 算子 缓存 自包含的 (self-contained)应用程序 下一步 RDD 编程指南 概述 链接 Spark 初始化 Spark 使用 Shell 弹性分布式数据集 (RDD) 并行集合 外部数据集 RDD 算子 RDD
  • 快速入门 — Spark 2. 2. x 中文文档 2. 2. 1 文档 - Read the Docs
    注意 Spark 2 0 版本之前, Spark 的核心编程接口是弹性分布式数据集 (RDD)。Spark 2 0 版本之后, RDD 被 Dataset 所取代, Dataset 跟 RDD 一样也是强类型的, 但是底层做了更多的优化。Spark 目前仍然支持 RDD 接口, 你可以在 RDD 编程指南 页面获得更完整的参考,但是我们强烈建议你转而使用比 RDD 有着更好性能的
  • Spark 2. 2. x 中文文档 2. 2. 1 文档 - Read the Docs
    Spark SQL 内部使用这些额外的信息来执行一些额外的优化操作。 有几种方式可以与 Spark SQL 进 行交互,其中包括 SQL 和 Dataset API。 当计算一个结果时 Spark SQL 使用的执行引擎是一样的, 它跟你使用哪种 API 或编程语 言来表达计算无关。
  • 在 YARN 上运行 Spark — Spark 2. 2. x 中文文档 2. 2. 1 文档
    在YARN上启动 ¶ 首先要确保 HADOOP_CONF_DIR 或者 YARN_CONF_DIR 指向一个包含 Hadoop 集群客户端配置文件的目录。这些配置用于向 HDFS 写数据以及连接到 YARN 的 ResourceManager(资源管理器)。这个目录下的配置将会分发到 YARN 集群上的各个节点,这样应用程序使用的所有YARN 容器都将使用同样的配置。如果这些
  • RDD 编程指南 — Spark 2. 2. x 中文文档 2. 2. 1 文档
    链接 Spark ¶ Scala Spark 2 2 1 默认使用 Scala 2 11 版本进行构建和分发的。 (Spark 也可以使用其它版本的 Scala 进行构建)如果想用 Scala 写应用程序,你需要使用兼容的 Scala 版本 (如:2 11 X) 要编写 Spark 应用程序,你需要添加 Spark 的 Maven 依赖。Spark 依赖可以通过以下 Maven 坐标从 Maven 中央仓库中获得:
  • Spark 配置 — Spark 2. 2. x 中文文档 2. 2. 1 文档 - Read the Docs
    Spark属性 ¶ Spark属性可以控制大多数的应用程序设置,并且每个应用的设定都是分开的。这些属性可以用SparkConf 对象直接设定。SparkConf为一些常用的属性定制了专用方法(如,master URL和application name),其他属性都可以用键值对做参数,调用set ()方法来设置。例如,我们可以初始化一个包含2个本地
  • Spark 任务调度 — Spark 2. 2. x 中文文档 2. 2. 1 文档
    概览 ¶ Spark有好几种计算资源调度的方式。首先,回忆一下集群模式概览(cluster mode overview)中每个Spark应用(包含一个SparkContext实例)中运行了一些其独占的执行器(executor)进程。集群管理器提供了Spark应用之间的资源调度(scheduling across applications)。其次,在各个Spark应用内部,各个线程可能
  • 提交 Spark 应用程序 — Spark 2. 2. x 中文文档 2. 2. 1 文档
    提交 Spark 应用程序 ¶ Spark bin 目录下的 spark-submit 脚本用于在集群中启动 Spark 应用程序。通过一个统一的接口它可以使用 Spark 支持的所有类型的集群管理器, 因此不需要为每个集群管理器专门配置你的应用程序。
  • Spark 独立模式 — Spark 2. 2. x 中文文档 2. 2. 1 文档
    Spark 独立模式 ¶ 除了可以在 Mesos 和 YARN 集群管理器上运行之外,Spark 还提供一种简单的独立部署模式。你既可以通过手工启动一个master和多个worker来手动地启动一个独立集群,也可以使用我们提供的启动脚本来启动一个独立集群。为了方便测试,你也可以在单机上运行这些后台程序。
  • 硬件配置 — Spark 2. 2. x 中文文档 2. 2. 1 文档
    CPU Cores ¶ Spark 在单机几十个 CPU 的机器上也能表现良好,因为 Spark 尽量减少了线程间共享的数据。 但一般你至少需要单机8~16个CPU cores。 当然,根据具体的计算量你可能需要更多的CPU,但是:一旦数据加载进内存,绝大多数应用的瓶颈要么是 CPU,要么是网络。





中文字典-英文字典  2005-2009