经典原版书库:大规模并行处理器程序设计(英文版·第2版)

经典原版书库:大规模并行处理器程序设计(英文版·第2版)
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
作者: [美] ,
2013-03
版次: 2
ISBN: 9787111416296
定价: 79.00
装帧: 平装
开本: 16开
纸张: 胶版纸
页数: 496页
正文语种: 简体中文,英语
24人买过
  •  《经典原版书库:大规模并行处理器程序设计(英文版.第2版)》内容简介:作者结合自己多年从事并行计算课程教学的经验,以简洁、直观和实用的方式,详细剖析了编写并行程序所需的各种技术,并用丰富的案例说明了并行程序设计的整个开发过程,即从计算机思想开始,直到最终实现高效可行的并行程序。
     与上一版相比,本版对书中内容进行全面修订和更新,更加系统地阐述并行程序设计,既介绍了基本并行算法模式,又补充了更多的背景资料,而且还介绍了一些新的实用编程技术和工具。具体更新情况如下:
     并行模式:新增3章并行模式方面的内容,详细说明了并行应用中涉及的诸多算法。
     cuda fortran:这一章简要介绍了针对cuda体系结构的编程接口,并通过丰富的实例阐释cuda编程。
     openacc:这一章介绍了使用指令表示并行性的开放标准,以简化并行编程任务。
     thrust:thrust是cuda c/c++之上的一个抽象层。本版用一章的篇幅说明了如何利用thrust并行模板库以最少的编程工作来实现高性能应用。
     c++amp:微软开发的一种编程接口,用于简化windows环境中大规模并行处理编程。
     nvidia的kepler架构:探讨了nvidia高性能、节能的gpu架构的编程特性。  David B.Kirk美国国家工程院院士、NVIDIA Fellow,曾是NVIDIA公司首席科学家。他领导了nvidia图形技术开发,并使其成为当今最流行的大众娱乐平台,也是cuda技术的创始人之一。2002年,他荣获ACM SIGGRAPH计算机图形成就奖,以表彰其在把高性能计算机图形系统推向大众市场方面所做出的杰出贡献。他拥有麻省理工学院的机械工程学学士学位和硕士学位,加州理工学院的计算机科学博士学位。kirk博士是50项与图形芯片设计相关的专利和专利申请的发明者,发表了50多篇关于图形处理技术的论文,是可视化计算技术方面的权威。
     Wen-Mei W.Hwu(胡文美)拥有美国加州大学伯克利分校计算机科学博士学位,现任美国伊利诺伊大学厄巴纳—香槟分校(UIUC)协调科学实验室电气与计算机工程Jerry Sanders(AMD创始人)讲座教授、微软和英特尔联合资助的通用并行计算研究中心联合主任兼世界上第一个NVIDIA CUDA卓越中心首席研究员。胡教授是世界顶级的并行处理器架构与编译器专家,担任美国下一代千万亿级计算机——蓝水系统的首席研究员。他是IEEE Fellow、ACM Fellow。 preface 
    acknowledgements 
    chapter 1 introduction 
    1.1 heterogeneous parallel computing 
    1.2 architecture of a modem gpu 
    1.3 why more speed or parallelism? 
    1.4 speeding up real applications 
    1.5 parallel programming languages and models 
    1.6 overarching goals 
    1.7 organization of the book 
    references 
    chapter 2 history of gpu computing 
    2.1 evolution of graphics pipelines 
    the era of fixed-function graphics pipelines 
    evolution of programmable real-time graphics 
    unified graphics and computing processors 
    2.2 gpgpu: an intermediate step 
    2.3 gpu computing 
    scalable gpus 
    recent developments 
    future trends 
    references and further reading 
    chapter 3 introduction to data parallelism and coda c 
    3.1 data parallelism 
    3.2 cuda program structure 
    3.3 a vector addition kernel 
    3.4 device global memory and data transfer 
    3.5 kernel functions and threading 
    3.6 summary 
    function declarations 
    kernel launch 
    predefined variables 
    runtime api 
    3.7 exercises 
    references 
    chapter 4 data-parallel execution model 
    4.1 cuda thread organization 
    4.2 mapping threads to multidimensional data 
    4.3 matrix-matrix multiplication--a more complex kernel 
    4.4 synchronization and transparent scalability 
    4.5 assigning resources to blocks 
    4.6 querying device properties 
    4.7 thread scheduling and latency tolerance 
    4.8 summary 
    4.9 exercises 
    chapter 5 coda memories 
    5.1 importance of memory access efficiency 
    5.2 cuda device memory types 
    5.3 a strategy for reducing global memory traffic 
    5.4 a tiled matrix-matrix multiplication kernel 
    5.5 memory as a limiting factor to parallelism 
    5.6 summary 
    5.7 exercises 
    chapter 6 performance considerations 
    6.1 warps and thread execution 
    6.2 global memory bandwidth 
    6.3 dynamic partitioning of execution resources 
    6.4 instruction mix and thread granularity 
    6.5 summary 
    6.6 exercises 
    references 
    chapter 7 floating-point considerations 
    7.1 floating-point format 
    normalized representation of m 
    excess encoding of e 
    7.2 representable numbers 
    7.3 special bit patterns and precision in ieee format 
    7.4 arithmetic accuracy and rounding 
    7.5 algorithm considerations 
    7.6 numerical stability 
    7.7 summary 
    7.8 exercises 
    references 
    chapter 8 parallel patterns: convolution 
    8.1 background 
    8.2 ID parallel convolution a basic algorithm 
    8.3 constant memory and caching 
    8.4 tiled 1d convolution with halo elements 
    8.5 a simpler tiled 1d convolution--general caching 
    8.6 summary 
    8.7 exercises 
    chapter 9 parallel patterns: prefix sum 
    9.1 background 
    9.2 a simple parallel scan 
    9.3 work efficiency considerations 
    9.4 a work-efficient parallel scan 
    9.5 parallel scan for arbitrary-length inputs 
    9.6 summary 
    9.7 exercises 
    reference 
    chapter 10 parallel patterns: sparse matrix-vector multiplication 
    10.1 background 
    10.2 parallel spmv using csr 
    10.3 padding and transposition 
    10.4 using hybrid to control padding 
    10.5 sorting and partitioning for regularization 
    10.6 summary 
    10.7 exercises 
    references 
    chapter 11 application case study: advanced mri reconstruction 
    11.1 application background 
    11.2 iterative reconstruction 
    11.3 computing fhd 
    step 1: determine the kernel parallelism structure 
    step 2: getting around the memory bandwidth limitation. 
    step 3: using hardware trigonometry functions 
    step 4: experimental performance tuning 
    11.4 final evaluation 
    11.5 exercises 
    references 
    chapter 12 application case study: molecular visualization and analysis 
    12.1 application background 
    12.2 a simple kernel implementation 
    12.3 thread granularity adjustment 
    12.4 memory coalescing 
    12.5 summary 
    12.6 exercises 
    references 
    chapter 13 parallel programming and computational thinking 
    13.1 goals of parallel computing 
    13.2 problem decomposition 
    13.3 algorithm selection 
    13.4 computational thinking 
    13.5 summary 
    13.6 exercises 
    references 
    chapter 14 an introduction to opencltm 
    14.1 background 
    14.2 data parallelism model 
    14.3 device architecture 
    14.4 kernel functions 
    14.5 device management and kernel launch 
    14.6 electrostatic potential map in opencl 
    14.7 summary 
    14.8 exercises 
    references 
    chapter 15 parallel programming with openacc 
    15.1 0penacc versus cuda c 
    15.2 execution model 
    15.3 memory model 
    15.4 basic openacc programs 
    parallel construct 
    loop constmct 
    kernels construct 
    data management 
    asynchronous computation and data transfer 
    15.5 future directions of openacc 
    15.6 exercises 
    chapter 16 thrust: a productivity-oriented library for cuda 
    16.1 background 
    16.2 motivation 
    16.3 basic thrust features 
    iterators and memory space 
    interoperability 
    16.4 generic programming 
    16.5 benefits of abstraction 
    16.6 programmer productivity 
    robustness 
    real world performance 
    16.7 best practices 
    fusion 
    structure of arrays 
    implicit ranges 
    16.8 exercises 
    references 
    chapter 17 cuda fortran 
    17.1 cuda fortran and cuda c differences 
    17.2 a first cuda fortran program 
    17.3 multidimensional array in cuda fortran. 
    17.4 overloading host/device routines with generic interfaces 
    17.5 calling cuda c via iso_c_binding 
    17.6 kernel loop directives and reduction operations 
    17.7 dynamic shared memory 
    17.8 asynchronous data transfers 
    17.9 compilation and profiling 
    17.10 calling thrust from cuda fortran 
    17.11 exercises 
    chapter 18 an introduction to c + + amp 
    18.1 core c + + amp features 
    18.2 details of the c + + amp execution model 
    explicit and implicit data copies 
    asynchronous operation 
    section summary 
    18.3 managing accelerators 
    18.4 tiled execution 
    18.5 c + + amp graphics features 
    18.6 summary 
    18.7 exercises 
    chapter 19 programming a heterogeneous computing cluster 
    19.1 background 
    19.2 a running example 
    19.3 mpi basics 
    19.4 mpi point-to-point communication types 
    19.5 overlapping computation and communication 
    19.6 mpi collective communication 
    19.7 summary 
    19.8 exercises 
    reference 
    chapter 20 cuda dynamic parallelism 
    20.1 background 
    20.2 dynamic parallelism overview 
    20.3 important details 
    launch enviromnent configuration 
    apierrors and launch failures 
    events 
    streams 
    synchronization scope 
    20.4 memory visibility 
    global memory 
    zero-copy memory 
    constant memory 
    texture memory 
    20.5 a simple example 
    20.6 runtime limitations 
    memory footprint 
    nesting depth 
    memory allocation and lifetime 
    ecc errors 
    streams 
    events 
    launch pool 
    20.7 a more complex example 
    linear bezier curves 
    quadratic bezier curves 
    bezier curve calculation (predynamic parallelism) 
    bezier curve calculation (with dynamic parallelism) 
    20.8 summary 
    reference 
    chapter 21 conclusion and future outlook 
    21.1 goals revisited 
    21.2 memory model evolution 
    21.3 kernel execution control evolution 
    21.4 core performance 
    21.5 programming environment 
    21.6 future outlook 
    references 
    appendix A: matrix multiplication host-only version source code 
    appendix B: gpu compute capabilities 
    index
  • 内容简介:
     《经典原版书库:大规模并行处理器程序设计(英文版.第2版)》内容简介:作者结合自己多年从事并行计算课程教学的经验,以简洁、直观和实用的方式,详细剖析了编写并行程序所需的各种技术,并用丰富的案例说明了并行程序设计的整个开发过程,即从计算机思想开始,直到最终实现高效可行的并行程序。
     与上一版相比,本版对书中内容进行全面修订和更新,更加系统地阐述并行程序设计,既介绍了基本并行算法模式,又补充了更多的背景资料,而且还介绍了一些新的实用编程技术和工具。具体更新情况如下:
     并行模式:新增3章并行模式方面的内容,详细说明了并行应用中涉及的诸多算法。
     cuda fortran:这一章简要介绍了针对cuda体系结构的编程接口,并通过丰富的实例阐释cuda编程。
     openacc:这一章介绍了使用指令表示并行性的开放标准,以简化并行编程任务。
     thrust:thrust是cuda c/c++之上的一个抽象层。本版用一章的篇幅说明了如何利用thrust并行模板库以最少的编程工作来实现高性能应用。
     c++amp:微软开发的一种编程接口,用于简化windows环境中大规模并行处理编程。
     nvidia的kepler架构:探讨了nvidia高性能、节能的gpu架构的编程特性。
  • 作者简介:
     David B.Kirk美国国家工程院院士、NVIDIA Fellow,曾是NVIDIA公司首席科学家。他领导了nvidia图形技术开发,并使其成为当今最流行的大众娱乐平台,也是cuda技术的创始人之一。2002年,他荣获ACM SIGGRAPH计算机图形成就奖,以表彰其在把高性能计算机图形系统推向大众市场方面所做出的杰出贡献。他拥有麻省理工学院的机械工程学学士学位和硕士学位,加州理工学院的计算机科学博士学位。kirk博士是50项与图形芯片设计相关的专利和专利申请的发明者,发表了50多篇关于图形处理技术的论文,是可视化计算技术方面的权威。
     Wen-Mei W.Hwu(胡文美)拥有美国加州大学伯克利分校计算机科学博士学位,现任美国伊利诺伊大学厄巴纳—香槟分校(UIUC)协调科学实验室电气与计算机工程Jerry Sanders(AMD创始人)讲座教授、微软和英特尔联合资助的通用并行计算研究中心联合主任兼世界上第一个NVIDIA CUDA卓越中心首席研究员。胡教授是世界顶级的并行处理器架构与编译器专家,担任美国下一代千万亿级计算机——蓝水系统的首席研究员。他是IEEE Fellow、ACM Fellow。
  • 目录:
    preface 
    acknowledgements 
    chapter 1 introduction 
    1.1 heterogeneous parallel computing 
    1.2 architecture of a modem gpu 
    1.3 why more speed or parallelism? 
    1.4 speeding up real applications 
    1.5 parallel programming languages and models 
    1.6 overarching goals 
    1.7 organization of the book 
    references 
    chapter 2 history of gpu computing 
    2.1 evolution of graphics pipelines 
    the era of fixed-function graphics pipelines 
    evolution of programmable real-time graphics 
    unified graphics and computing processors 
    2.2 gpgpu: an intermediate step 
    2.3 gpu computing 
    scalable gpus 
    recent developments 
    future trends 
    references and further reading 
    chapter 3 introduction to data parallelism and coda c 
    3.1 data parallelism 
    3.2 cuda program structure 
    3.3 a vector addition kernel 
    3.4 device global memory and data transfer 
    3.5 kernel functions and threading 
    3.6 summary 
    function declarations 
    kernel launch 
    predefined variables 
    runtime api 
    3.7 exercises 
    references 
    chapter 4 data-parallel execution model 
    4.1 cuda thread organization 
    4.2 mapping threads to multidimensional data 
    4.3 matrix-matrix multiplication--a more complex kernel 
    4.4 synchronization and transparent scalability 
    4.5 assigning resources to blocks 
    4.6 querying device properties 
    4.7 thread scheduling and latency tolerance 
    4.8 summary 
    4.9 exercises 
    chapter 5 coda memories 
    5.1 importance of memory access efficiency 
    5.2 cuda device memory types 
    5.3 a strategy for reducing global memory traffic 
    5.4 a tiled matrix-matrix multiplication kernel 
    5.5 memory as a limiting factor to parallelism 
    5.6 summary 
    5.7 exercises 
    chapter 6 performance considerations 
    6.1 warps and thread execution 
    6.2 global memory bandwidth 
    6.3 dynamic partitioning of execution resources 
    6.4 instruction mix and thread granularity 
    6.5 summary 
    6.6 exercises 
    references 
    chapter 7 floating-point considerations 
    7.1 floating-point format 
    normalized representation of m 
    excess encoding of e 
    7.2 representable numbers 
    7.3 special bit patterns and precision in ieee format 
    7.4 arithmetic accuracy and rounding 
    7.5 algorithm considerations 
    7.6 numerical stability 
    7.7 summary 
    7.8 exercises 
    references 
    chapter 8 parallel patterns: convolution 
    8.1 background 
    8.2 ID parallel convolution a basic algorithm 
    8.3 constant memory and caching 
    8.4 tiled 1d convolution with halo elements 
    8.5 a simpler tiled 1d convolution--general caching 
    8.6 summary 
    8.7 exercises 
    chapter 9 parallel patterns: prefix sum 
    9.1 background 
    9.2 a simple parallel scan 
    9.3 work efficiency considerations 
    9.4 a work-efficient parallel scan 
    9.5 parallel scan for arbitrary-length inputs 
    9.6 summary 
    9.7 exercises 
    reference 
    chapter 10 parallel patterns: sparse matrix-vector multiplication 
    10.1 background 
    10.2 parallel spmv using csr 
    10.3 padding and transposition 
    10.4 using hybrid to control padding 
    10.5 sorting and partitioning for regularization 
    10.6 summary 
    10.7 exercises 
    references 
    chapter 11 application case study: advanced mri reconstruction 
    11.1 application background 
    11.2 iterative reconstruction 
    11.3 computing fhd 
    step 1: determine the kernel parallelism structure 
    step 2: getting around the memory bandwidth limitation. 
    step 3: using hardware trigonometry functions 
    step 4: experimental performance tuning 
    11.4 final evaluation 
    11.5 exercises 
    references 
    chapter 12 application case study: molecular visualization and analysis 
    12.1 application background 
    12.2 a simple kernel implementation 
    12.3 thread granularity adjustment 
    12.4 memory coalescing 
    12.5 summary 
    12.6 exercises 
    references 
    chapter 13 parallel programming and computational thinking 
    13.1 goals of parallel computing 
    13.2 problem decomposition 
    13.3 algorithm selection 
    13.4 computational thinking 
    13.5 summary 
    13.6 exercises 
    references 
    chapter 14 an introduction to opencltm 
    14.1 background 
    14.2 data parallelism model 
    14.3 device architecture 
    14.4 kernel functions 
    14.5 device management and kernel launch 
    14.6 electrostatic potential map in opencl 
    14.7 summary 
    14.8 exercises 
    references 
    chapter 15 parallel programming with openacc 
    15.1 0penacc versus cuda c 
    15.2 execution model 
    15.3 memory model 
    15.4 basic openacc programs 
    parallel construct 
    loop constmct 
    kernels construct 
    data management 
    asynchronous computation and data transfer 
    15.5 future directions of openacc 
    15.6 exercises 
    chapter 16 thrust: a productivity-oriented library for cuda 
    16.1 background 
    16.2 motivation 
    16.3 basic thrust features 
    iterators and memory space 
    interoperability 
    16.4 generic programming 
    16.5 benefits of abstraction 
    16.6 programmer productivity 
    robustness 
    real world performance 
    16.7 best practices 
    fusion 
    structure of arrays 
    implicit ranges 
    16.8 exercises 
    references 
    chapter 17 cuda fortran 
    17.1 cuda fortran and cuda c differences 
    17.2 a first cuda fortran program 
    17.3 multidimensional array in cuda fortran. 
    17.4 overloading host/device routines with generic interfaces 
    17.5 calling cuda c via iso_c_binding 
    17.6 kernel loop directives and reduction operations 
    17.7 dynamic shared memory 
    17.8 asynchronous data transfers 
    17.9 compilation and profiling 
    17.10 calling thrust from cuda fortran 
    17.11 exercises 
    chapter 18 an introduction to c + + amp 
    18.1 core c + + amp features 
    18.2 details of the c + + amp execution model 
    explicit and implicit data copies 
    asynchronous operation 
    section summary 
    18.3 managing accelerators 
    18.4 tiled execution 
    18.5 c + + amp graphics features 
    18.6 summary 
    18.7 exercises 
    chapter 19 programming a heterogeneous computing cluster 
    19.1 background 
    19.2 a running example 
    19.3 mpi basics 
    19.4 mpi point-to-point communication types 
    19.5 overlapping computation and communication 
    19.6 mpi collective communication 
    19.7 summary 
    19.8 exercises 
    reference 
    chapter 20 cuda dynamic parallelism 
    20.1 background 
    20.2 dynamic parallelism overview 
    20.3 important details 
    launch enviromnent configuration 
    apierrors and launch failures 
    events 
    streams 
    synchronization scope 
    20.4 memory visibility 
    global memory 
    zero-copy memory 
    constant memory 
    texture memory 
    20.5 a simple example 
    20.6 runtime limitations 
    memory footprint 
    nesting depth 
    memory allocation and lifetime 
    ecc errors 
    streams 
    events 
    launch pool 
    20.7 a more complex example 
    linear bezier curves 
    quadratic bezier curves 
    bezier curve calculation (predynamic parallelism) 
    bezier curve calculation (with dynamic parallelism) 
    20.8 summary 
    reference 
    chapter 21 conclusion and future outlook 
    21.1 goals revisited 
    21.2 memory model evolution 
    21.3 kernel execution control evolution 
    21.4 core performance 
    21.5 programming environment 
    21.6 future outlook 
    references 
    appendix A: matrix multiplication host-only version source code 
    appendix B: gpu compute capabilities 
    index
查看详情
系列丛书 / 更多
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
计算机网络
[荷兰]塔嫩鲍姆(Tanenbaum A.S.) 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
Java编程思想:英文版·第4版
[美]埃克尔 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
编译原理(英文版·第2版)
[美]阿霍 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
计算机科学概论(英文版·第5版)
[美]Nell、John Lewis 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
计算机组成与设计:硬件/软件接口(英文版•第5版•亚洲版)
[美]David、John L.Hennessy 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
现代操作系统(英文版·第4版)
[美]Andrew S. Tanenbaum、Herbert Bos 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典原版书库:电子商务(英文精编版·第10版)
[美]施内德(Gary P. Schneider) 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
计算机科学引论(2017英文精编版)
[美]蒂莫西、J.、奥利里(Timothy、J.、O\\\\\\\'Leary) 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
Java语言程序设计:基础篇(英文版)(第8版)
[美]梁(Y.Daniel Liang) 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
离散数学及其应用(英文版)(第7版)
[美]罗森 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
软件工程:实践者的研究方法(英文精编版 第8版)
[美]罗杰、[美]布鲁斯 R.马克西姆 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
计算机文化:(英文版·第15版)
[美]帕森斯(June Jamrich Parsons)、[美]奥贾(Dan Oja) 著
相关图书 / 更多
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典古诗词诵读(第三版)
张涵 著
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典译林:了不起的盖茨比
弗朗西斯·斯科特·菲茨杰拉德 著,吴冰青 译
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典与李白(文艺研究小丛书)(第三辑)
詹福瑞 著;陈斐 编
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典中的管理智慧(全三册,《道德经》《孝经》《论语》《素书》《止学》《了凡四训》中的管理智慧)
李柏映
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典译林:宋词三百首(以1924年上彊村民初刻本为底本,恢复选本原貌。88家词人,300首经典词作。附词人小传、宋词年表。)
(清)上彊村民编,林晓慧注评
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典易读系列:简·奥斯丁儿童文学合集 更适合小学生阅读的简·奥斯丁,让6-12岁孩子轻松入门经典!像奥斯丁一样,保持勇气追求梦想
[英]简·奥斯丁 著;[英]杰玛·巴德
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典常谈朱自清原著正版八年级下册课外书名著阅读现代出版社语文配套课外阅读书籍当代文学散文集精选经典常谈
朱自清
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典译林:雪国 古都(特别收录川端康成在诺奖颁奖仪式上的演讲、三岛由纪夫对川端康成其人及作品的解读。)
川端康成 著,美空 译
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典逻辑导论
(澳)格里格·莱斯托(Greg Restall)
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典百字文100篇(四年级上下册)
鱼利明
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典科普图鉴系列:昆虫 全书收录了60种自然界中的昆虫,包括天牛、蝼蛄、螳螂等陆地爬行昆虫,蜜蜂、泥蛉、蝴蝶等空中飞行昆虫。
韩雨江,陈琪主编
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经典常谈(详细注析版)
朱自清著 赵长征注析
您可能感兴趣 / 更多
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
归属感:如何通过社群获得商业竞争优势
[美]大卫·斯平克斯(David Spinks) 著;颉腾文化 出品
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
《世界上最大的肚子》2024百班千人暑期书目学前中班名师推荐全新正版现货速发
[美]雷米·查利普(美)柏顿·萨普瑞
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
经济学通义
[美]阿门·A.阿尔钦 (美)威廉·R.艾伦 著;[美]杰里·L.乔丹 编
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
数字化领导力 数字化转型锦囊,领导力精进指南 一本书掌握数字化转型领导力之道
[美]艾萨克·萨科里克 著;王磊 译;颉腾文化 出品;邓斌
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
法哲学基本原理
[美]马克·C.墨菲
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
雪花的故事(用照片展示雪花的秘密,为你揭开冬日奇景的奥秘)
[美]马克·卡西诺[美]乔恩·尼尔森
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
杜甫传
[美]弗洛伦斯.艾思柯
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
神奇的数字零:从数字0开始的极简数学史和人类发展史
[美]查尔斯·塞弗(Charles Seife)著 杨杨立汝 译
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
环境的科学 (平装版)
[美]威廉·坎宁安 后浪
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
美利坚在燃烧:20世纪60年代以来的警察暴力与黑人反抗
[美]伊丽莎白·欣顿 著 胡位钧 译
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
儒教中国及其现代命运(三部曲)
[美]列文森 作者;[中]季剑青 译者
经典原版书库:大规模并行处理器程序设计(英文版·第2版)
逃家小兔成长绘本系列
[美]玛格丽特.怀兹.布朗