关于
float32array的搜索结果
问题
Python-无法将float转换为numpy数组
我正在将float转换为numpy数组,但是无法这样做。我得到的错误是
IndexError:仅整数,slice(:),省略号(......
养狐狸的猫
2019-12-01 19:58:23
8 浏览量
回答数 0
回答
详细解答可以参考官方帮助文档
基本数据类型
MaxCompute2.0支持的基本数据类型如下表所示,新增类型有TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP和BINARY,MaxCompute表中的列必须是下列描述的任意一种类型,详情如下:
说明
SQL(Create、select、insert等操作)中涉及到新数据类型(TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP BINARY),需在SQL语句前加语句set odps.sql.type.system.odps2=true;,执行时set语句和SQL语句一起提交执行。 涉及INT类型,加上述set语句的时候是32位,不加的时候会被转换成BIGINT,是64位。
MR类型任务目前暂时不支持操作新数据类型。
类型
是否新增
常量定义
描述
TINYINT
是
1Y,-127Y
8 位有符号整形,范围 -128 到 127
SMALLINT
是
32767S, -100S
16 位有符号整形, 范围 -32768 到 32767
INT
是
1000,-15645787(注释1)
32位有符号整形,范围-231到231 - 1
BIGINT
否
100000000000L, -1L
64位有符号整形, 范围-263 + 1到263 - 1
FLOAT
是
无
32位二进制浮点型
DOUBLE
否
3.1415926 1E+7
64位二进制浮点型
DECIMAL
否
3.5BD, 99999999999.9999999BD
10 进制精确数字类型,整形部分范围-10^36+1到10^36-1, 小数部分精确到 10^(-18)
VARCHAR
是
无 ( 注释2 )
变长字符类型,n为长度,取值范围 1 到 65535
STRING
否
“abc”,’bcd’,”alibaba” ‘inc’ ( 注释3 )
字符串类型,目前长度限制为 8M
BINARY
是
无
二进制数据类型,目前长度限制为 8M
DATETIME
否
DATETIME ‘2017-11-11 00:00:00’
日期时间类型,范围从0000年1月1日到9999年12月31日,精确到毫秒(注释4)
TIMESTAMP
是
TIMESTAMP ‘2017-11-11 00:00:00.123456789’
与时区无关的时间戳类型,范围从0000年1月1日到9999年12月31日 23.59:59.999999999, 精确到纳秒
BOOLEAN
否
TRUE,FALSE
boolean 类型, 取值 TRUE 或 FALSE
上述的各种数据类型均可为NULL。
说明
注释1:对于INT常量,如果超过INT取值范围,会转为BIGINT。如果超过BIGINT取值范围,会转为DOUBLE。
在旧版MaxCompute中,因为历史原因,SQL脚本中的所有INT类型都被转换为BIGINT,如下所示:
create table a_bigint_table(a int); -- 这里的int实际当作bigint处理
select cast(id as int) from mytable; -- 这里的int实际当作bigint处理
为了与MaxCompute原有模式兼容,MaxCompute2.0在未设定odps.sql.type.system.odps2为true的情况下,仍保留此转换,但会报告一个警告,提示INT被当作BIGINT处理了,如果您的脚本有此种情况,建议全部改写为BIGINT,避免混淆。
注释2:VARCHAR类型常量可通过STRING常量的隐式转换表示。
注释3:STRING常量支持连接,例如abc xyz会解析为abcxyz,不同部分可以写在不同行上。
注释4:目前查询显示的时间值不包含毫秒。Tunnel 命令通过-dfp 来指定时间格式,可以指定到毫秒显示,例如tunnel upload -dfp 'yyyy-MM-dd HH:mm:ss.SSS' ,关于Tunnel命令的更多信息,请参考Tunnel命令操作。
MaxCompute2.0支持的复杂类型如下表所示。
说明
SQL( create、select、insert等操作)中涉及到这几个复杂数据类型,需在SQL语句前加语句set odps.sql.type.system.odps2=true;,执行时set语句和SQL语句一起提交执行。
类型
定义方法
构造方法
ARRAY
array< int >;array< struct< a:int, b:string >>
array(1, 2, 3); array(array(1, 2); array(3, 4))
MAP
map< string, string >;map< smallint, array< string>>
map(“k1”, “v1”, “k2”, “v2”);map(1S, array(‘a’, ‘b’), 2S, array(‘x’, ‘y))
STRUCT
struct< x:int, y:int>;struct< field1:bigint, field2:array< int>, field3:map< int, int>>
named_struct(‘x’, 1, ‘y’, 2);named_struct(‘field1’, 100L, ‘field2’, array(1, 2), ‘field3’, map(1, 100, 2, 200)
2019-12-01 23:10:56
0 浏览量
回答数 0
回答
详细解答可以参考官方帮助文档
基本数据类型
MaxCompute2.0支持的基本数据类型如下表所示,新增类型有TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP和BINARY,MaxCompute表中的列必须是下列描述的任意一种类型,详情如下:
说明
SQL(Create、select、insert等操作)中涉及到新数据类型(TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP BINARY),需在SQL语句前加语句set odps.sql.type.system.odps2=true;,执行时set语句和SQL语句一起提交执行。 涉及INT类型,加上述set语句的时候是32位,不加的时候会被转换成BIGINT,是64位。
MR类型任务目前暂时不支持操作新数据类型。
类型
是否新增
常量定义
描述
TINYINT
是
1Y,-127Y
8 位有符号整形,范围 -128 到 127
SMALLINT
是
32767S, -100S
16 位有符号整形, 范围 -32768 到 32767
INT
是
1000,-15645787(注释1)
32位有符号整形,范围-231到231 - 1
BIGINT
否
100000000000L, -1L
64位有符号整形, 范围-263 + 1到263 - 1
FLOAT
是
无
32位二进制浮点型
DOUBLE
否
3.1415926 1E+7
64位二进制浮点型
DECIMAL
否
3.5BD, 99999999999.9999999BD
10 进制精确数字类型,整形部分范围-10^36+1到10^36-1, 小数部分精确到 10^(-18)
VARCHAR
是
无 ( 注释2 )
变长字符类型,n为长度,取值范围 1 到 65535
STRING
否
“abc”,’bcd’,”alibaba” ‘inc’ ( 注释3 )
字符串类型,目前长度限制为 8M
BINARY
是
无
二进制数据类型,目前长度限制为 8M
DATETIME
否
DATETIME ‘2017-11-11 00:00:00’
日期时间类型,范围从0000年1月1日到9999年12月31日,精确到毫秒(注释4)
TIMESTAMP
是
TIMESTAMP ‘2017-11-11 00:00:00.123456789’
与时区无关的时间戳类型,范围从0000年1月1日到9999年12月31日 23.59:59.999999999, 精确到纳秒
BOOLEAN
否
TRUE,FALSE
boolean 类型, 取值 TRUE 或 FALSE
上述的各种数据类型均可为NULL。
说明
注释1:对于INT常量,如果超过INT取值范围,会转为BIGINT。如果超过BIGINT取值范围,会转为DOUBLE。
在旧版MaxCompute中,因为历史原因,SQL脚本中的所有INT类型都被转换为BIGINT,如下所示:
create table a_bigint_table(a int); -- 这里的int实际当作bigint处理
select cast(id as int) from mytable; -- 这里的int实际当作bigint处理
为了与MaxCompute原有模式兼容,MaxCompute2.0在未设定odps.sql.type.system.odps2为true的情况下,仍保留此转换,但会报告一个警告,提示INT被当作BIGINT处理了,如果您的脚本有此种情况,建议全部改写为BIGINT,避免混淆。
注释2:VARCHAR类型常量可通过STRING常量的隐式转换表示。
注释3:STRING常量支持连接,例如abc xyz会解析为abcxyz,不同部分可以写在不同行上。
注释4:目前查询显示的时间值不包含毫秒。Tunnel 命令通过-dfp 来指定时间格式,可以指定到毫秒显示,例如tunnel upload -dfp 'yyyy-MM-dd HH:mm:ss.SSS' ,关于Tunnel命令的更多信息,请参考Tunnel命令操作。
MaxCompute2.0支持的复杂类型如下表所示。
说明
SQL( create、select、insert等操作)中涉及到这几个复杂数据类型,需在SQL语句前加语句set odps.sql.type.system.odps2=true;,执行时set语句和SQL语句一起提交执行。
类型
定义方法
构造方法
ARRAY
array< int >;array< struct< a:int, b:string >>
array(1, 2, 3); array(array(1, 2); array(3, 4))
MAP
map< string, string >;map< smallint, array< string>>
map(“k1”, “v1”, “k2”, “v2”);map(1S, array(‘a’, ‘b’), 2S, array(‘x’, ‘y))
STRUCT
struct< x:int, y:int>;struct< field1:bigint, field2:array< int>, field3:map< int, int>>
named_struct(‘x’, 1, ‘y’, 2);named_struct(‘field1’, 100L, ‘field2’, array(1, 2), ‘field3’, map(1, 100, 2, 200)
2019-12-01 23:10:55
0 浏览量
回答数 0
回答
详细解答可以参考官方帮助文档
基本数据类型
MaxCompute2.0支持的基本数据类型如下表所示,新增类型有TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP和BINARY,MaxCompute表中的列必须是下列描述的任意一种类型,详情如下:
说明
SQL(Create、select、insert等操作)中涉及到新数据类型(TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP BINARY),需在SQL语句前加语句set odps.sql.type.system.odps2=true;,执行时set语句和SQL语句一起提交执行。 涉及INT类型,加上述set语句的时候是32位,不加的时候会被转换成BIGINT,是64位。
MR类型任务目前暂时不支持操作新数据类型。
类型
是否新增
常量定义
描述
TINYINT
是
1Y,-127Y
8 位有符号整形,范围 -128 到 127
SMALLINT
是
32767S, -100S
16 位有符号整形, 范围 -32768 到 32767
INT
是
1000,-15645787(注释1)
32位有符号整形,范围-231到231 - 1
BIGINT
否
100000000000L, -1L
64位有符号整形, 范围-263 + 1到263 - 1
FLOAT
是
无
32位二进制浮点型
DOUBLE
否
3.1415926 1E+7
64位二进制浮点型
DECIMAL
否
3.5BD, 99999999999.9999999BD
10 进制精确数字类型,整形部分范围-10^36+1到10^36-1, 小数部分精确到 10^(-18)
VARCHAR
是
无 ( 注释2 )
变长字符类型,n为长度,取值范围 1 到 65535
STRING
否
“abc”,’bcd’,”alibaba” ‘inc’ ( 注释3 )
字符串类型,目前长度限制为 8M
BINARY
是
无
二进制数据类型,目前长度限制为 8M
DATETIME
否
DATETIME ‘2017-11-11 00:00:00’
日期时间类型,范围从0000年1月1日到9999年12月31日,精确到毫秒(注释4)
TIMESTAMP
是
TIMESTAMP ‘2017-11-11 00:00:00.123456789’
与时区无关的时间戳类型,范围从0000年1月1日到9999年12月31日 23.59:59.999999999, 精确到纳秒
BOOLEAN
否
TRUE,FALSE
boolean 类型, 取值 TRUE 或 FALSE
上述的各种数据类型均可为NULL。
说明
注释1:对于INT常量,如果超过INT取值范围,会转为BIGINT。如果超过BIGINT取值范围,会转为DOUBLE。
在旧版MaxCompute中,因为历史原因,SQL脚本中的所有INT类型都被转换为BIGINT,如下所示:
create table a_bigint_table(a int); -- 这里的int实际当作bigint处理
select cast(id as int) from mytable; -- 这里的int实际当作bigint处理
为了与MaxCompute原有模式兼容,MaxCompute2.0在未设定odps.sql.type.system.odps2为true的情况下,仍保留此转换,但会报告一个警告,提示INT被当作BIGINT处理了,如果您的脚本有此种情况,建议全部改写为BIGINT,避免混淆。
注释2:VARCHAR类型常量可通过STRING常量的隐式转换表示。
注释3:STRING常量支持连接,例如abc xyz会解析为abcxyz,不同部分可以写在不同行上。
注释4:目前查询显示的时间值不包含毫秒。Tunnel 命令通过-dfp 来指定时间格式,可以指定到毫秒显示,例如tunnel upload -dfp 'yyyy-MM-dd HH:mm:ss.SSS' ,关于Tunnel命令的更多信息,请参考Tunnel命令操作。
MaxCompute2.0支持的复杂类型如下表所示。
说明
SQL( create、select、insert等操作)中涉及到这几个复杂数据类型,需在SQL语句前加语句set odps.sql.type.system.odps2=true;,执行时set语句和SQL语句一起提交执行。
类型
定义方法
构造方法
ARRAY
array< int >;array< struct< a:int, b:string >>
array(1, 2, 3); array(array(1, 2); array(3, 4))
MAP
map< string, string >;map< smallint, array< string>>
map(“k1”, “v1”, “k2”, “v2”);map(1S, array(‘a’, ‘b’), 2S, array(‘x’, ‘y))
STRUCT
struct< x:int, y:int>;struct< field1:bigint, field2:array< int>, field3:map< int, int>>
named_struct(‘x’, 1, ‘y’, 2);named_struct(‘field1’, 100L, ‘field2’, array(1, 2), ‘field3’, map(1, 100, 2, 200)
2019-12-01 23:10:56
0 浏览量
回答数 0
问题
OpenSearch如何过滤filter子句?
子句说明
过滤功能支持用户根据查询条件,筛选出用户感兴趣的文档。会在通过query子句查找到的文档进行进一步的过滤,以返回最终所需结果。
语法说明
过滤条件格式为:filed=v...
轩墨
2019-12-01 20:57:11
1190 浏览量
回答数 0
问题
tensorflow LSTM时间序列预测问题?报错
#coding=utf-8
import numpy as np
import tensorflow as tf
import matplotlib as mpl
mpl.use('Agg')
from matplo...
爱吃鱼的程序员
2020-06-08 13:26:46
0 浏览量
回答数 1
问题
请问,我这段代码问题出现在哪里,内存等不到释放?
如题,在ios中使用opengl渲染的过程中,数组内存得不到释放,而我每次移动模型,会反复调用下述方法,导致内存越来越大,程序崩溃。求指点下。。
@autoreleasepool {
if (sum...
a123456678
2019-12-01 19:51:57
884 浏览量
回答数 1
问题
简单的单矩阵tensorflow keras模型不起作用
我正在尝试设置一个简单的tf.keras模型,其中矢量作为输入馈入,输出是单个矩阵乘法的结果。创建模型的代码行已成功但调用它进行正向传递会导致错误。n_input_nodes = 2n_output_nodes = 1x = tf.kera...
一码平川MACHEL
2019-12-01 19:31:41
501 浏览量
回答数 1
问题
oss 生成GetObject的签名url,主要用于私有权限下的读访问控制 SignatureDoesNotMatch
object(OSSHttpResponseCore)#16 (3) { ["header"]=> array(8) { ["server"]=> string(9) "AliyunOSS" ["date"]=> stri...
絕丨情
2019-12-01 20:07:27
2054 浏览量
回答数 1
问题
MaxCompute产品简介:基本概念:数据类型
基本数据类型
MaxCompute2.0 支持的基本数据类型如下表,新增类型有:TINYINT、SMALLINT、 INT、 FLOAT、VARCHAR、TIMESTAMP 和 BINARY,M...
行者武松
2019-12-01 22:01:03
1624 浏览量
回答数 0
问题
RAY Python框架内存不足
我用ray创建了一个简单的远程功能,该功能占用很少的内存。但是,在短时间运行后,内存稳定增加,并且出现RayOutOfMemoryError异常。
以下代码是此问题的非常简单的示例。...
祖安文状元
2020-02-21 17:36:13
3 浏览量
回答数 1
问题
adnroid 3D系列之纹理篇 功能启动 创建纹理 纹理坐标:报错
之前的例子都是纯色的3D模型。今天我们就开始给这些模型贴上华丽丽的纹理,让他们看起来更加接近我们印象中的真实物体。
功能启动 为使用纹理,我们需要打开OpenGL的一些开关以启动我们需要的一些功能:...
kun坤
2020-06-14 10:30:55
0 浏览量
回答数 1
回答
涉及到数组的重量级运算操作,可以使用 NumPy 库。 NumPy 的一个主要特征是它会给Python提供一个数组对象,相比标准的Python列表而已更适合用来做数学运算。 下面是一个简单的小例子,向你展示标准列表对象和 NumPy 数组对象之间的差别:
>>> # Python lists
>>> x = [1, 2, 3, 4]
>>> y = [5, 6, 7, 8]
>>> x * 2
[1, 2, 3, 4, 1, 2, 3, 4]
>>> x + 10
Traceback (most recent call last):
File "", line 1, in
TypeError: can only concatenate list (not "int") to list
>>> x + y
[1, 2, 3, 4, 5, 6, 7, 8]
>>> # Numpy arrays
>>> import numpy as np
>>> ax = np.array([1, 2, 3, 4])
>>> ay = np.array([5, 6, 7, 8])
>>> ax * 2
array([2, 4, 6, 8])
>>> ax + 10
array([11, 12, 13, 14])
>>> ax + ay
array([ 6, 8, 10, 12])
>>> ax * ay
array([ 5, 12, 21, 32])
>>>
正如所见,两种方案中数组的基本数学运算结果并不相同。 特别的, NumPy 中的标量运算(比如 ax * 2 或 ax + 10 )会作用在每一个元素上。 另外,当两个操作数都是数组的时候执行元素对等位置计算,并最终生成一个新的数组。
对整个数组中所有元素同时执行数学运算可以使得作用在整个数组上的函数运算简单而又快速。 比如,如果你想计算多项式的值,可以这样做:
>>> def f(x):
... return 3*x**2 - 2*x + 7
...
>>> f(ax)
array([ 8, 15, 28, 47])
>>>
NumPy 还为数组操作提供了大量的通用函数,这些函数可以作为 math 模块中类似函数的替代。比如:
>>> np.sqrt(ax)
array([ 1. , 1.41421356, 1.73205081, 2. ])
>>> np.cos(ax)
array([ 0.54030231, -0.41614684, -0.9899925 , -0.65364362])
>>>
使用这些通用函数要比循环数组并使用 math 模块中的函数执行计算要快的多。 因此,只要有可能的话尽量选择 NumPy 的数组方案。
底层实现中, NumPy 数组使用了C或者Fortran语言的机制分配内存。 也就是说,它们是一个非常大的连续的并由同类型数据组成的内存区域。 所以,你可以构造一个比普通Python列表大的多的数组。 比如,如果你想构造一个10,000*10,000的浮点数二维网格,很轻松:
>>> grid = np.zeros(shape=(10000,10000), dtype=float)
>>> grid
array([[ 0., 0., 0., ..., 0., 0., 0.],
[ 0., 0., 0., ..., 0., 0., 0.],
[ 0., 0., 0., ..., 0., 0., 0.],
...,
[ 0., 0., 0., ..., 0., 0., 0.],
[ 0., 0., 0., ..., 0., 0., 0.],
[ 0., 0., 0., ..., 0., 0., 0.]])
>>>
所有的普通操作还是会同时作用在所有元素上:
>>> grid += 10
>>> grid
array([[ 10., 10., 10., ..., 10., 10., 10.],
[ 10., 10., 10., ..., 10., 10., 10.],
[ 10., 10., 10., ..., 10., 10., 10.],
...,
[ 10., 10., 10., ..., 10., 10., 10.],
[ 10., 10., 10., ..., 10., 10., 10.],
[ 10., 10., 10., ..., 10., 10., 10.]])
>>> np.sin(grid)
array([[-0.54402111, -0.54402111, -0.54402111, ..., -0.54402111,
-0.54402111, -0.54402111],
[-0.54402111, -0.54402111, -0.54402111, ..., -0.54402111,
-0.54402111, -0.54402111],
[-0.54402111, -0.54402111, -0.54402111, ..., -0.54402111,
-0.54402111, -0.54402111],
...,
[-0.54402111, -0.54402111, -0.54402111, ..., -0.54402111,
-0.54402111, -0.54402111],
[-0.54402111, -0.54402111, -0.54402111, ..., -0.54402111,
-0.54402111, -0.54402111],
[-0.54402111, -0.54402111, -0.54402111, ..., -0.54402111,
-0.54402111, -0.54402111]])
>>>
关于 NumPy 有一点需要特别的主意,那就是它扩展Python列表的索引功能 - 特别是对于多维数组。 为了说明清楚,先构造一个简单的二维数组并试着做些试验:
>>> a = np.array([[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]])
>>> a
array([[ 1, 2, 3, 4],
[ 5, 6, 7, 8],
[ 9, 10, 11, 12]])
>>> # Select row 1
>>> a[1]
array([5, 6, 7, 8])
>>> # Select column 1
>>> a[:,1]
array([ 2, 6, 10])
>>> # Select a subregion and change it
>>> a[1:3, 1:3]
array([[ 6, 7],
[10, 11]])
>>> a[1:3, 1:3] += 10
>>> a
array([[ 1, 2, 3, 4],
[ 5, 16, 17, 8],
[ 9, 20, 21, 12]])
>>> # Broadcast a row vector across an operation on all rows
>>> a + [100, 101, 102, 103]
array([[101, 103, 105, 107],
[105, 117, 119, 111],
[109, 121, 123, 115]])
>>> a
array([[ 1, 2, 3, 4],
[ 5, 16, 17, 8],
[ 9, 20, 21, 12]])
>>> # Conditional assignment on an array
>>> np.where(a < 10, a, 10)
array([[ 1, 2, 3, 4],
[ 5, 10, 10, 8],
[ 9, 10, 10, 10]])
>>>
哦哦喔
2020-04-17 09:31:24
0 浏览量
回答数 0
问题
代码不适用于bmi计算。只有一个代码块有效,而另一个不起作用
当我单击第二个微调器项目时,该特定微调器项目的代码应执行但未执行。如果正在执行部分,则仅执行一个
我尝试了以下代码
package com.example.bmicalculator;
import and...
小六码奴
2019-12-01 20:00:59
16 浏览量
回答数 1
回答
代码:
import taichi as ti quality = 1 # Use a larger value for higher-res simulations n_particles, n_grid = 9000 * quality ** 2, 128 * quality dx, inv_dx = 1 / n_grid, float(n_grid) dt = 1e-4 / quality p_vol, p_rho = (dx * 0.5)**2, 1 p_mass = p_vol * p_rho E, nu = 0.1e4, 0.2 # Young's modulus and Poisson's ratio mu_0, lambda_0 = E / (2 * (1 + nu)), E * nu / ((1+nu) * (1 - 2 * nu)) # Lame parameters
x = ti.Vector(2, dt=ti.f32, shape=n_particles) # position v = ti.Vector(2, dt=ti.f32, shape=n_particles) # velocity C = ti.Matrix(2, 2, dt=ti.f32, shape=n_particles) # affine velocity field F = ti.Matrix(2, 2, dt=ti.f32, shape=n_particles) # deformation gradient material = ti.var(dt=ti.i32, shape=n_particles) # material id Jp = ti.var(dt=ti.f32, shape=n_particles) # plastic deformation grid_v = ti.Vector(2, dt=ti.f32, shape=(n_grid, n_grid)) # grid node momemtum/velocity grid_m = ti.var(dt=ti.f32, shape=(n_grid, n_grid)) # grid node mass ti.cfg.arch = ti.cuda # Try to run on GPU
@ti.kernel def substep(): for i, j in ti.ndrange(n_grid, n_grid): grid_v[i, j] = [0, 0] grid_m[i, j] = 0 for p in range(n_particles): # Particle state update and scatter to grid (P2G) base = (x[p] * inv_dx - 0.5).cast(int) fx = x[p] * inv_dx - base.cast(float) # Quadratic kernels [http://mpm.graphics Eqn. 123, with x=fx, fx-1,fx-2] w = [0.5 * ti.sqr(1.5 - fx), 0.75 - ti.sqr(fx - 1), 0.5 * ti.sqr(fx - 0.5)] F[p] = (ti.Matrix.identity(ti.f32, 2) + dt * C[p]) @ F[p] # deformation gradient update h = ti.exp(10 * (1.0 - Jp[p])) # Hardening coefficient: snow gets harder when compressed if material[p] == 1: # jelly, make it softer h = 0.3 mu, la = mu_0 * h, lambda_0 * h if material[p] == 0: # liquid mu = 0.0 U, sig, V = ti.svd(F[p]) J = 1.0 for d in ti.static(range(2)): new_sig = sig[d, d] if material[p] == 2: # Snow new_sig = min(max(sig[d, d], 1 - 2.5e-2), 1 + 4.5e-3) # Plasticity Jp[p] *= sig[d, d] / new_sig sig[d, d] = new_sig J *= new_sig if material[p] == 0: # Reset deformation gradient to avoid numerical instability F[p] = ti.Matrix.identity(ti.f32, 2) * ti.sqrt(J) elif material[p] == 2: F[p] = U @ sig @ V.T() # Reconstruct elastic deformation gradient after plasticity stress = 2 * mu * (F[p] - U @ V.T()) @ F[p].T() + ti.Matrix.identity(ti.f32, 2) * la * J * (J - 1) stress = (-dt * p_vol * 4 * inv_dx * inv_dx) * stress affine = stress + p_mass * C[p] for i, j in ti.static(ti.ndrange(3, 3)): # Loop over 3x3 grid node neighborhood offset = ti.Vector([i, j]) dpos = (offset.cast(float) - fx) * dx weight = w[i][0] * w[j][1] grid_v[base + offset] += weight * (p_mass * v[p] + affine @ dpos) grid_m[base + offset] += weight * p_mass for i, j in ti.ndrange(n_grid, n_grid): if grid_m[i, j] > 0: # No need for epsilon here grid_v[i, j] = (1 / grid_m[i, j]) * grid_v[i, j] # Momentum to velocity grid_v[i, j][1] -= dt * 50 # gravity if i < 3 and grid_v[i, j][0] < 0: grid_v[i, j][0] = 0 # Boundary conditions if i > n_grid - 3 and grid_v[i, j][0] > 0: grid_v[i, j][0] = 0 if j < 3 and grid_v[i, j][1] < 0: grid_v[i, j][1] = 0 if j > n_grid - 3 and grid_v[i, j][1] > 0: grid_v[i, j][1] = 0 for p in range(n_particles): # grid to particle (G2P) base = (x[p] * inv_dx - 0.5).cast(int) fx = x[p] * inv_dx - base.cast(float) w = [0.5 * ti.sqr(1.5 - fx), 0.75 - ti.sqr(fx - 1.0), 0.5 * ti.sqr(fx - 0.5)] new_v = ti.Vector.zero(ti.f32, 2) new_C = ti.Matrix.zero(ti.f32, 2, 2) for i, j in ti.static(ti.ndrange(3, 3)): # loop over 3x3 grid node neighborhood dpos = ti.Vector([i, j]).cast(float) - fx g_v = grid_v[base + ti.Vector([i, j])] weight = w[i][0] * w[j][1] new_v += weight * g_v new_C += 4 * inv_dx * weight * ti.outer_product(g_v, dpos) v[p], C[p] = new_v, new_C x[p] += dt * v[p] # advection
import random group_size = n_particles // 3 for i in range(n_particles): x[i] = [random.random() * 0.2 + 0.3 + 0.10 * (i // group_size), random.random() * 0.2 + 0.05 + 0.32 * (i // group_size)] material[i] = i // group_size # 0: fluid 1: jelly 2: snow v[i] = [0, 0] F[i] = [[1, 0], [0, 1]] Jp[i] = 1
import numpy as np gui = ti.GUI("Taichi MLS-MPM-99", res=512, background_color=0x112F41) for frame in range(20000): for s in range(int(2e-3 // dt)): substep() colors = np.array([0x068587, 0xED553B, 0xEEEEF0], dtype=np.uint32) gui.circles(x.to_numpy(), radius=1.5, color=colors[material.to_numpy()]) gui.show() # Change to gui.show(f'{frame:06d}.png') to write images to disk
jiewuyu
2020-01-09 18:45:21
0 浏览量
回答数 0
回答
html:
[html] view plain copy
js文件:
[javascript] view plain copy
(function (window) {
//兼容
window.URL = window.URL || window.webkitURL;
navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia;
var HZRecorder = function (stream, config) {
config = config || {};
config.sampleBits = config.sampleBits || 8; //采样数位 8, 16
config.sampleRate = config.sampleRate || (44100 / 6); //采样率(1/6 44100)
//创建一个音频环境对象
audioContext = window.AudioContext || window.webkitAudioContext;
var context = new audioContext();
//将声音输入这个对像
var audioInput = context.createMediaStreamSource(stream);
//设置音量节点
var volume = context.createGain();
audioInput.connect(volume);
//创建缓存,用来缓存声音
var bufferSize = 4096;
// 创建声音的缓存节点,createScriptProcessor方法的
// 第二个和第三个参数指的是输入和输出都是双声道。
var recorder = context.createScriptProcessor(bufferSize, 2, 2);
var audioData = {
size: 0 //录音文件长度
, buffer: [] //录音缓存
, inputSampleRate: context.sampleRate //输入采样率
, inputSampleBits: 16 //输入采样数位 8, 16
, outputSampleRate: config.sampleRate //输出采样率
, oututSampleBits: config.sampleBits //输出采样数位 8, 16
, input: function (data) {
this.buffer.push(new Float32Array(data));
this.size += data.length;
}
, compress: function () { //合并压缩
//合并
var data = new Float32Array(this.size);
var offset = 0;
for (var i = 0; i < this.buffer.length; i++) {
data.set(this.buffer[i], offset);
offset += this.buffer[i].length;
}
//压缩
var compression = parseInt(this.inputSampleRate / this.outputSampleRate);
var length = data.length / compression;
var result = new Float32Array(length);
var index = 0, j = 0;
while (index < length) {
result[index] = data[j];
j += compression;
index++;
}
return result;
}
, encodeWAV: function () {
var sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate);
var sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits);
var bytes = this.compress();
var dataLength = bytes.length * (sampleBits / 8);
var buffer = new ArrayBuffer(44 + dataLength);
var data = new DataView(buffer);
var channelCount = 1;//单声道
var offset = 0;
var writeString = function (str) {
for (var i = 0; i < str.length; i++) {
data.setUint8(offset + i, str.charCodeAt(i));
}
};
// 资源交换文件标识符
writeString('RIFF'); offset += 4;
// 下个地址开始到文件尾总字节数,即文件大小-8
data.setUint32(offset, 36 + dataLength, true); offset += 4;
// WAV文件标志
writeString('WAVE'); offset += 4;
// 波形格式标志
writeString('fmt '); offset += 4;
// 过滤字节,一般为 0x10 = 16
data.setUint32(offset, 16, true); offset += 4;
// 格式类别 (PCM形式采样数据)
data.setUint16(offset, 1, true); offset += 2;
// 通道数
data.setUint16(offset, channelCount, true); offset += 2;
// 采样率,每秒样本数,表示每个通道的播放速度
data.setUint32(offset, sampleRate, true); offset += 4;
// 波形数据传输率 (每秒平均字节数) 单声道×每秒数据位数×每样本数据位/8
data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4;
// 快数据调整数 采样一次占用字节数 单声道×每样本的数据位数/8
data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2;
// 每样本数据位数
data.setUint16(offset, sampleBits, true); offset += 2;
// 数据标识符
writeString('data'); offset += 4;
// 采样数据总数,即数据总大小-44
data.setUint32(offset, dataLength, true); offset += 4;
// 写入采样数据
if (sampleBits === 8) {
for (var i = 0; i < bytes.length; i++, offset++) {
var s = Math.max(-1, Math.min(1, bytes[i]));
var val = s < 0 ? s * 0x8000 : s * 0x7FFF;
val = parseInt(255 / (65535 / (val + 32768)));
data.setInt8(offset, val, true);
}
} else {
for (var i = 0; i < bytes.length; i++, offset += 2) {
var s = Math.max(-1, Math.min(1, bytes[i]));
data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true);
}
}
return new Blob([data], { type: 'audio/wav' });
}
};
//开始录音
this.start = function () {
audioInput.connect(recorder);
recorder.connect(context.destination);
};
//停止
this.stop = function () {
recorder.disconnect();
};
//获取音频文件
this.getBlob = function () {
this.stop();
return audioData.encodeWAV();
};
//回放
this.play = function (audio) {
audio.src = window.URL.createObjectURL(this.getBlob());
};
//上传
this.upload = function (url, callback) {
var fd = new FormData();
fd.append('audioData', this.getBlob());
var xhr = new XMLHttpRequest();
if (callback) {
xhr.upload.addEventListener('progress', function (e) {
callback('uploading', e);
}, false);
xhr.addEventListener('load', function (e) {
callback('ok', e);
}, false);
xhr.addEventListener('error', function (e) {
callback('error', e);
}, false);
xhr.addEventListener('abort', function (e) {
callback('cancel', e);
}, false);
}
xhr.open('POST', url);
xhr.send(fd);
};
//音频采集
recorder.onaudioprocess = function (e) {
audioData.input(e.inputBuffer.getChannelData(0));
//record(e.inputBuffer.getChannelData(0));
};
};
//抛出异常
HZRecorder.throwError = function (message) {
throw new function () { this.toString = function () { return message; };};
};
//是否支持录音
HZRecorder.canRecording = (navigator.getUserMedia != null);
//获取录音机
HZRecorder.get = function (callback, config) {
if (callback) {
if (navigator.getUserMedia) {
navigator.getUserMedia(
{ audio: true } //只启用音频
, function (stream) {
var rec = new HZRecorder(stream, config);
callback(rec);
}
, function (error) {
switch (error.code || error.name) {
case 'PERMISSION_DENIED':
case 'PermissionDeniedError':
HZRecorder.throwError('用户拒绝提供信息。');
break;
case 'NOT_SUPPORTED_ERROR':
case 'NotSupportedError':
HZRecorder.throwError('浏览器不支持硬件设备。');
break;
case 'MANDATORY_UNSATISFIED_ERROR':
case 'MandatoryUnsatisfiedError':
HZRecorder.throwError('无法发现指定的硬件设备。');
break;
default:
HZRecorder.throwError('无法打开麦克风。异常信息:' + (error.code || error.name));
break;
}
});
} else {
HZRecorder.throwErr('当前浏览器不支持录音功能。'); return;
}
}
};
window.HZRecorder = HZRecorder;
})(window);
页面调用 js:
[javascript] view plain copy
/* 音频 */
var recorder;
var audio = document.querySelector('audio');
function startRecording() {
HZRecorder.get(function (rec) {
recorder = rec;
recorder.start();
});
}
function obtainRecord(){
var record = recorder.getBlob();
debugger;
};
function stopRecord(){
recorder.stop();
};
function playRecord(){
recorder.play(audio);
};
/* 视频 */
function scamera() {
var videoElement = document.getElementById('video1');
var canvasObj = document.getElementById('canvas1');
var context1 = canvasObj.getContext('2d');
context1.fillStyle = "#ffffff";
context1.fillRect(0, 0, 320, 240);
context1.drawImage(videoElement, 0, 0, 320, 240);
};
function playVideo(){
var videoElement1 = document.getElementById('video1');
var videoElement2 = document.getElementById('video2');
videoElement2.setAttribute("src", videoElement1);
小旋风柴进
2019-12-02 02:37:49
0 浏览量
回答数 0
问题
OpenSearch有什么系统限制?
系统相关
项值每个用户应用数不限制每个用户doc总数理论上不限制,具体根据应用配额文档容量来计算每个用户pv总数理论上不限制,具体根据应用配额QPS峰值来计算系统支持汉字编码UTF-8
应用相关
项值...
轩墨
2019-12-01 20:55:41
1146 浏览量
回答数 0
问题
在Tensorflow中连接张量
我想在Tensorflow中连接变量和张量,但Tensorflow不允许这两种类型连接。
这是我连接两个张量的方法:
self.embedded_chars = tf.nn.embedding_loo...
祖安文状元
2020-02-23 15:38:42
26 浏览量
回答数 2
回答
我更喜欢使用cv2的图像,你可以将此代码放在research / object_detection路径为 detect_object.py
文件必须放在这里: model-master/research/object_detection/detect_object.py
import numpy as npimport osimport six.moves.urllib as urllibimport sysimport tarfileimport tensorflow as tfimport zipfile
from distutils.version import StrictVersionfrom collections import defaultdictfrom io import StringIOimport cv2
This is needed since the notebook is stored in the object_detection folder.
sys.path.append("..")from object_detection.utils import ops as utils_ops
if StrictVersion(tf.__version__) < StrictVersion('1.9.0'): raise ImportError('Please upgrade your TensorFlow installation to v1.9.* or later!')
Object detection imports
Here are the imports from the object detection module.
from utils import label_map_util
from utils import visualization_utils as vis_util
What model to download.
MODEL_NAME = 'ssd_mobilenet_v1_coco_2017_11_17'MODEL_FILE = MODEL_NAME + '.tar.gz'DOWNLOAD_BASE = 'http://download.tensorflow.org/models/object_detection/'
Path to frozen detection graph. This is the actual model that is used for the object detection.
PATH_TO_FROZEN_GRAPH = MODEL_NAME + '/frozen_inference_graph.pb'
List of the strings that is used to add correct label for each box.
PATH_TO_LABELS = os.path.join('data', 'mscoco_label_map.pbtxt')
opener = urllib.request.URLopener()
opener.retrieve(DOWNLOAD_BASE + MODEL_FILE, MODEL_FILE)
tar_file = tarfile.open(MODEL_FILE)for file in tar_file.getmembers(): file_name = os.path.basename(file.name) if 'frozen_inference_graph.pb' in file_name:
tar_file.extract(file, os.getcwd())
detection_graph = tf.Graph()with detection_graph.as_default(): od_graph_def = tf.GraphDef() with tf.gfile.GFile(PATH_TO_FROZEN_GRAPH, 'rb') as fid:
serialized_graph = fid.read()
od_graph_def.ParseFromString(serialized_graph)
tf.import_graph_def(od_graph_def, name='')
In[31]:
category_index = label_map_util.create_category_index_from_labelmap(PATH_TO_LABELS, use_display_name=True)
Size, in inches, of the output images.
IMAGE_SIZE = (12, 8)
def run_inference_for_single_image(image, graph): with graph.as_default():
with tf.Session() as sess:
# Get handles to input and output tensors
ops = tf.get_default_graph().get_operations()
all_tensor_names = {output.name for op in ops for output in op.outputs}
tensor_dict = {}
for key in [
'num_detections', 'detection_boxes', 'detection_scores',
'detection_classes', 'detection_masks'
]:
tensor_name = key + ':0'
if tensor_name in all_tensor_names:
tensor_dict[key] = tf.get_default_graph().get_tensor_by_name(
tensor_name)
if 'detection_masks' in tensor_dict:
# The following processing is only for single image
detection_boxes = tf.squeeze(tensor_dict['detection_boxes'], [0])
detection_masks = tf.squeeze(tensor_dict['detection_masks'], [0])
# Reframe is required to translate mask from box coordinates to image coordinates and fit the image size.
real_num_detection = tf.cast(tensor_dict['num_detections'][0], tf.int32)
detection_boxes = tf.slice(detection_boxes, [0, 0], [real_num_detection, -1])
detection_masks = tf.slice(detection_masks, [0, 0, 0], [real_num_detection, -1, -1])
detection_masks_reframed = utils_ops.reframe_box_masks_to_image_masks(
detection_masks, detection_boxes, image.shape[0], image.shape[1])
detection_masks_reframed = tf.cast(
tf.greater(detection_masks_reframed, 0.5), tf.uint8)
# Follow the convention by adding back the batch dimension
tensor_dict['detection_masks'] = tf.expand_dims(
detection_masks_reframed, 0)
image_tensor = tf.get_default_graph().get_tensor_by_name('image_tensor:0')
# Run inference
output_dict = sess.run(tensor_dict,
feed_dict={image_tensor: np.expand_dims(image, 0)})
# all outputs are float32 numpy arrays, so convert types as appropriate
output_dict['num_detections'] = int(output_dict['num_detections'][0])
output_dict['detection_classes'] = output_dict[
'detection_classes'][0].astype(np.uint8)
output_dict['detection_boxes'] = output_dict['detection_boxes'][0]
output_dict['detection_scores'] = output_dict['detection_scores'][0]
if 'detection_masks' in output_dict:
output_dict['detection_masks'] = output_dict['detection_masks'][0]
return output_dict
image = cv2.imread("test_images/image1.jpg")
the array based representation of the image will be used later in order to prepare the
result image with boxes and labels on it.
image_np = load_image_into_numpy_array(image)
Expand dimensions since the model expects images to have shape: [1, None, None, 3]
image_np_expanded = np.expand_dims(image, axis=0)
Actual detection.
output_dict = run_inference_for_single_image(image, detection_graph)
vis_util.visualize_boxes_and_labels_on_image_array(
image,
output_dict['detection_boxes'],
output_dict['detection_classes'],
output_dict['detection_scores'],
category_index,
instance_masks=output_dict.get('detection_masks'),
use_normalized_coordinates=True,
line_thickness=8)
cv2.imshow("",image)
一码平川MACHEL
2019-12-02 01:57:39
0 浏览量
回答数 0
回答
目前,Ray支持部分引用计数。(完整的参考计数将很快发布)。简而言之,当传递给远程函数的object_id未序列化时,引用引用的计数方式与引用Python的计数方式相同。这意味着,如果result_transformed是由Python收集的垃圾,result_transformed则应取消固定血浆存储中的,并在将对象清除为LRU时将其清除。(为清楚起见,不会清除具有某些引用计数的固定对象)。
我还假设存在一些奇怪的引用计数,例如循环引用。result_transformed运行该脚本时,我可以验证它是否被驱逐了。因此,我认为result_transformed本身不是问题。可能存在许多问题。就我而言,我发现当我将ipython用作输入(IN)时,它会创建对python对象的引用。(例如,当您看到某个对象的值时,OUT [number]可以引用您的对象)。
In [2]: import psutil
...: import gc
...: import ray
...: from time import sleep
...: import numpy as np
...: @ray.remote
...: def calc_similarity(sims, offset):
...: # Fake some work for 100 ms.
...: sleep(0.10)
...: return True
...:
...: if __name__ == "__main__":
...: # Initialize RAY to use all of the processors.
...: num_cpus = psutil.cpu_count(logical=False)
...: ray.init(num_cpus=num_cpus)
...:
...: num_docs = 1000000
...: num_dimensions = 300
...: chunk_size = 128
...: sim_pct = 0.82
...:
...: # Initialize the array
...: index = np.random.random((num_docs, num_dimensions)).astype(dtype=np.float32)
...: index_array = np.arange(num_docs).reshape(1, num_docs)
...: index_array_id = ray.put(index_array)
...:
...: calc_results = []
...: i = 0
...: for count, start_doc_no in enumerate(range(0, num_docs, chunk_size)):
...: i += 1
...: size = min( chunk_size, num_docs - (start_doc_no) + 1 )
...: # Get the query vector out of the index.
...: query_vector = index[start_doc_no:start_doc_no+size]
...: # Calculate the matrix multiplication.
...: result_transformed = np.matmul(index, query_vector.T).T
...: # Serialize the result matrix out for each client.
...: result_id = ray.put(result_transformed)
...: if i == 1:
...: # The first result_id binary number should be stored in result_id_special
...: # In this way, we can verify if this object id is evicted after filling up our
...: # plasma store by some random numpy array
...: # If this object id is not evicted, that means it is pinned, meaning if is
...: # not properly reference counted.
...: first_object_id = result_id.binary()
...: # Simulate multi-threading extracting the results of a cosine similarity calculation
...: for offset in range(chunk_size):
...: calc_results.append(calc_similarity.remote(sims=result_id, offset=offset ))
...: # , index_array=index_array_id))
...: res = ray.get(calc_results)
...: calc_results.clear()
...: print('ref count to result_id {}'.format(len(gc.get_referrers(result_id))))
...: print('Total number of ref counts in a ray cluster. {}'.format(ray.worker.global_worker.core_worker.get_all_reference_counts()))
...: if i == 5:
...: break
...: # It should contain the object id of the
...: print('first object id: {}'.format(first_object_id))
...: print('fill up plasma store by big numpy arrays. This should evict the first_object_id from the plasma store.')
...: print('because if the data_transformed is garbage collected properly, it should be unpinned from plasma store')
...: print('and when plasma store is filled by numpy array, first_object_id should be evicted.')
...: for _ in range(40):
...: import numpy as np
...: ray.put(np.zeros(500 * 1024 * 1024, dtype=np.uint8))
...: print('total ref count from a ray cluster after eviction: {}'.format(ray.worker.global_worker.core_worker.get_all_reference_counts()))
...: # this should fail as first_object_id is already evicted
...: print(ray.get(ray.ObjectID(first_object_id)))
[ray] Forcing OMP_NUM_THREADS=1 to avoid performance degradation with many workers (issue #6998). You can override this by explicitly setting OMP_NUM_THREADS.
2020-02-12 00:10:11,932 INFO resource_spec.py:212 -- Starting Ray with 4.35 GiB memory available for workers and up to 2.19 GiB for objects. You can adjust these settings with ray.init(memory=, object_store_memory=).
2020-02-12 00:10:12,273 INFO services.py:1080 -- View the Ray dashboard at localhost:8265
2020-02-12 00:10:18,522 WARNING worker.py:289 -- OMP_NUM_THREADS=1 is set, this may slow down ray.put() for large objects (issue #6998).
ref count to result_id 1
Total number of ref counts in a ray cluster. {ObjectID(ffffffffffffffffffffffff0100008002000000): {'local': 1, 'submitted': 0}, ObjectID(ffffffffffffffffffffffff0100008001000000): {'local': 1, 'submitted': 0}}
ref count to result_id 1
Total number of ref counts in a ray cluster. {ObjectID(ffffffffffffffffffffffff0100008003000000): {'local': 1, 'submitted': 0}, ObjectID(ffffffffffffffffffffffff0100008001000000): {'local': 1, 'submitted': 0}}
ref count to result_id 1
Total number of ref counts in a ray cluster. {ObjectID(ffffffffffffffffffffffff0100008001000000): {'local': 1, 'submitted': 0}, ObjectID(ffffffffffffffffffffffff0100008004000000): {'local': 1, 'submitted': 0}}
ref count to result_id 1
Total number of ref counts in a ray cluster. {ObjectID(ffffffffffffffffffffffff0100008001000000): {'local': 1, 'submitted': 0}, ObjectID(ffffffffffffffffffffffff0100008005000000): {'local': 1, 'submitted': 0}}
ref count to result_id 1
Total number of ref counts in a ray cluster. {ObjectID(ffffffffffffffffffffffff0100008006000000): {'local': 1, 'submitted': 0}, ObjectID(ffffffffffffffffffffffff0100008001000000): {'local': 1, 'submitted': 0}}
first object id: b'\xff\xff\xff\xff\xff\xff\xff\xff\xff\xff\xff\xff\x01\x00\x00\x80\x02\x00\x00\x00'
fill up plasma store by big numpy arrays. This should evict the first_object_id from the plasma store.
because if the data_transformed is garbage collected properly, it should be unpinned from plasma store
and when plasma store is filled by numpy array, first_object_id should be evicted.
total ref count from a ray cluster after eviction: {ObjectID(ffffffffffffffffffffffff0100008006000000): {'local': 1, 'submitted': 0}, ObjectID(ffffffffffffffffffffffff0100008001000000): {'local': 1, 'submitted': 0}}
2020-02-12 00:10:57,108 WARNING worker.py:1515 -- Local object store memory usage:
num clients with quota: 0
quota map size: 0
pinned quota map size: 0
allocated bytes: 2092865189
allocation limit: 2347285708
pinned bytes: 520000477
(global lru) capacity: 2347285708
(global lru) used: 67.0078%
(global lru) num objects: 4
(global lru) num evictions: 41
(global lru) bytes evicted: 21446665725
2020-02-12 00:10:57,112 WARNING worker.py:1072 -- The task with ID ffffffffffffffffffffffff0100 is a driver task and so the object created by ray.put could not be reconstructed.
---------------------------------------------------------------------------
UnreconstructableError Traceback (most recent call last)
in
63 print('total ref count from a ray cluster after eviction: {}'.format(ray.worker.global_worker.core_worker.get_all_reference_counts()))
64 # this should fail as first_object_id is already evicted
---> 65 print(ray.get(ray.ObjectID(first_object_id)))
66
~/work/ray/python/ray/worker.py in get(object_ids, timeout)
1517 raise value.as_instanceof_cause()
1518 else:
-> 1519 raise value
1520
1521 # Run post processors.
UnreconstructableError: Object ffffffffffffffffffffffff0100008002000000 is lost (either LRU evicted or deleted by user) and cannot be reconstructed. Try increasing the object store memory available with ray.init(object_store_memory=) or setting object store limits with ray.remote(object_store_memory=). See also: https://ray.readthedocs.io/en/latest/memory-management.html
祖安文状元
2020-02-22 10:27:48
0 浏览量
回答数 0
问题
未来有望干掉 Java 和 Python 的编程语言
Python 和 Java 是当今最热门的两种编程语言。但是,它们不可能永远位居榜首。最终,它们一定会失宠,就像所有的编程语言一样。这很可能在未来十年内就会发生。
哪些编程语言有望取代它们呢...
游客pklijor6gytpx
2020-01-09 14:12:19
4052 浏览量
回答数 3
问题
预测 | 未来有望干掉 Python 和 JavaScript 的编程语言?
作者 | Richard Kenneth Eng 译者 | 刘志勇 策划 | Tina
导读: Python 和 JavaScript 是两门非常有影响力的编程语言,二者都是我们在打造跨平台应用时会用到的主...
茶什i
2020-01-15 18:29:13
181 浏览量
回答数 2
问题
JAVA数据类型你都知道了嘛?
基本类型
byte/8char/16short/16int/32float/32long/64double/64boolean/~
boolean 只有两个值:true、false,可以使用 1 bit 来存...
montos
2020-05-18 21:06:30
4 浏览量
回答数 1
问题
[求助]VS2013运行opengl程序报错?报错
代码如下:
#define __STDC_WANT_LIB_EXT1__ 1
#include
#include
// GLEW
#include <...>
爱吃鱼的程序员
2020-06-08 20:48:11
0 浏览量
回答数 1
问题
PHP 收发消息如何实现?
运行环境准备
用 HTTP 协议发送或者接收消息,请完成以下准备工作。
Windows
从 IntelliJ 官网下载并安装 phpStorm 试用版:http://www.jetbrains.com/phpst...
猫饭先生
2019-12-01 21:15:06
1332 浏览量
回答数 0
回答
1. 【初级】下面属于关键字的是() A. func B. def C. struct D. class
参考答案:AC
2. 【初级】定义一个包内全局字符串变量,下面语法正确的是() A. var str string B. str := "" C. str = "" D. var str = ""
参考答案:AD
3. 【初级】通过指针变量 p 访问其成员变量 name,下面语法正确的是() A. p.name B. (*p).name C. (&p).name D. p->name
参考答案:AB
4. 【初级】关于接口和类的说法,下面说法正确的是() A. 一个类只需要实现了接口要求的所有函数,我们就说这个类实现了该接口 B. 实现类的时候,只需要关心自己应该提供哪些方法,不用再纠结接口需要拆得多细才合理 C. 类实现接口时,需要导入接口所在的包 D. 接口由使用方按自身需求来定义,使用方无需关心是否有其他模块定义过类似的接口
参考答案:ABD
5. 【初级】关于字符串连接,下面语法正确的是() A. str := ‘abc’ + ‘123’ B. str := "abc" + "123" C. str := '123' + "abc" D. fmt.Sprintf("abc%d", 123)
参考答案:BD
6. 【初级】关于协程,下面说法正确是() A. 协程和线程都可以实现程序的并发执行 B. 线程比协程更轻量级 C. 协程不存在死锁问题 D. 通过channel来进行协程间的通信
参考答案:AD
7. 【中级】关于init函数,下面说法正确的是() A. 一个包中,可以包含多个init函数 B. 程序编译时,先执行导入包的init函数,再执行本包内的init函数 C. main包中,不能有init函数 D. init函数可以被其他函数调用
参考答案:AB
8. 【初级】关于循环语句,下面说法正确的有() A. 循环语句既支持for关键字,也支持while和do-while B. 关键字for的基本使用方法与C/C++中没有任何差异 C. for循环支持continue和break来控制循环,但是它提供了一个更高级的break,可以选择中断哪一个循环 D. for循环不支持以逗号为间隔的多个赋值语句,必须使用平行赋值的方式来初始化多个变量 参考答案:CD
9. 【中级】对于函数定义:
func add(args ...int) int { sum :=0 for _,arg := range args { sum += arg } returnsum
}
下面对add函数调用正确的是() A. add(1, 2) B. add(1, 3, 7) C. add([]int{1, 2}) D. add([]int{1, 3, 7}...)
参考答案:ABD
【初级】关于类型转化,下面语法正确的是() A. type MyInt int var i int = 1
var jMyInt = i
B.
type MyIntint
var i int= 1
var jMyInt = (MyInt)i
C.
type MyIntint
var i int= 1
var jMyInt = MyInt(i)
D.
type MyIntint
var i int= 1
var jMyInt = i.(MyInt)
参考答案:C
【初级】关于局部变量的初始化,下面正确的使用方式是() A. var i int = 10 B. var i = 10 C. i := 10 D. i = 10
参考答案:ABC
【初级】关于const常量定义,下面正确的使用方式是() A. const Pi float64 = 3.14159265358979323846
const zero= 0.0
B.
const (
size int64= 1024
eof = -1
)
C.
const (
ERR_ELEM_EXISTerror = errors.New("element already exists")
ERR_ELEM_NT_EXISTerror = errors.New("element not exists")
)
D.
const u, vfloat32 = 0, 3
const a,b, c = 3, 4, "foo"
参考答案:ABD
【初级】关于布尔变量b的赋值,下面错误的用法是() A. b = true B. b = 1 C. b = bool(1) D. b = (1 == 2)
参考答案:BC
【中级】下面的程序的运行结果是() func main() { if (true) { defer fmt.Printf("1") } else { defer fmt.Printf("2") } fmt.Printf("3")
}
A. 321 B. 32 C. 31 D. 13
参考答案:C
【初级】关于switch语句,下面说法正确的有() A. 条件表达式必须为常量或者整数 B. 单个case中,可以出现多个结果选项 C. 需要用break来明确退出一个case D. 只有在case中明确添加fallthrough关键字,才会继续执行紧跟的下一个case
参考答案:BD
【中级】 golang中没有隐藏的this指针,这句话的含义是() A. 方法施加的对象显式传递,没有被隐藏起来 B. golang沿袭了传统面向对象编程中的诸多概念,比如继承、虚函数和构造函数 C. golang的面向对象表达更直观,对于面向过程只是换了一种语法形式来表达 D. 方法施加的对象不需要非得是指针,也不用非得叫this
参考答案:ACD
【中级】 golang中的引用类型包括() A. 数组切片 B. map C. channel D. interface
参考答案:ABCD
【中级】 golang中的指针运算包括() A. 可以对指针进行自增或自减运算 B. 可以通过“&”取指针的地址 C. 可以通过“*”取指针指向的数据 D. 可以对指针进行下标运算
参考答案:BC
【初级】关于main函数(可执行程序的执行起点),下面说法正确的是() A. main函数不能带参数 B. main函数不能定义返回值 C. main函数所在的包必须为main包 D. main函数中可以使用flag包来获取和解析命令行参数
参考答案:ABCD
【中级】下面赋值正确的是() A. var x = nil B. var x interface{} = nil C. var x string = nil D. var x error = nil
参考答案:BD
【中级】关于整型切片的初始化,下面正确的是() A. s := make([]int) B. s := make([]int, 0) C. s := make([]int, 5, 10) D. s := []int{1, 2, 3, 4, 5}
参考答案:BCD
【中级】从切片中删除一个元素,下面的算法实现正确的是() A. func (s *Slice)Remove(value interface{})error { for i, v := range *s { if isEqual(value, v) { if i== len(*s) - 1 { *s = (*s)[:i] }else { *s = append((*s)[:i],(*s)[i + 2:]...) } return nil } } return ERR_ELEM_NT_EXIST
}
B.
func (s*Slice)Remove(value interface{}) error {
for i, v:= range *s {
if isEqual(value, v) {
*s =append((*s)[:i],(*s)[i + 1:])
return nil
}
}
returnERR_ELEM_NT_EXIST
}
C.
func (s*Slice)Remove(value interface{}) error {
for i, v:= range *s {
if isEqual(value, v) {
delete(*s, v)
return nil
}
}
returnERR_ELEM_NT_EXIST
}
D.
func (s*Slice)Remove(value interface{}) error {
for i, v:= range *s {
if isEqual(value, v) {
*s =append((*s)[:i],(*s)[i + 1:]...)
return nil
}
}
returnERR_ELEM_NT_EXIST
}
参考答案:D
【初级】对于局部变量整型切片x的赋值,下面定义正确的是() A. x := []int{ 1, 2, 3, 4, 5, 6,
}
B.
x :=[]int{
1, 2, 3,
4, 5, 6
}
C.
x :=[]int{
1, 2, 3,
4, 5, 6}
D.
x :=[]int{1, 2, 3, 4, 5, 6,}
参考答案:ACD
【初级】关于变量的自增和自减操作,下面语句正确的是() A. i := 1
i++
B.
i := 1
j = i++
C.
i := 1
++i
D.
i := 1
i--
参考答案:AD
【中级】关于函数声明,下面语法错误的是() A. func f(a, b int) (value int, err error) B. func f(a int, b int) (value int, err error) C. func f(a, b int) (value int, error) D. func f(a int, b int) (int, int, error)
参考答案:C
【中级】如果Add函数的调用代码为: func main() { var a Integer = 1 var b Integer = 2 var i interface{} = &a sum := i.(*Integer).Add(b) fmt.Println(sum)
}
则Add函数定义正确的是() A.
typeInteger int
func (aInteger) Add(b Integer) Integer {
return a + b
}
B.
typeInteger int
func (aInteger) Add(b *Integer) Integer {
return a + *b
}
C.
typeInteger int
func (a*Integer) Add(b Integer) Integer {
return *a + b
}
D.
typeInteger int
func (a*Integer) Add(b *Integer) Integer {
return *a + *b
}
参考答案:AC
【中级】如果Add函数的调用代码为: func main() { var a Integer = 1 var b Integer = 2 var i interface{} = a sum := i.(Integer).Add(b) fmt.Println(sum)
}
则Add函数定义正确的是() A.
typeInteger int
func (a Integer)Add(b Integer) Integer {
return a + b
}
B.
typeInteger int
func (aInteger) Add(b *Integer) Integer {
return a + *b
}
C.
typeInteger int
func (a*Integer) Add(b Integer) Integer {
return *a + b
}
D.
typeInteger int
func (a*Integer) Add(b *Integer) Integer {
return *a + *b
}
参考答案:A
【中级】关于GetPodAction定义,下面赋值正确的是() type Fragment interface { Exec(transInfo *TransInfo) error } type GetPodAction struct { } func (g GetPodAction) Exec(transInfo*TransInfo) error { ... return nil
}
A. var fragment Fragment =new(GetPodAction) B. var fragment Fragment = GetPodAction C. var fragment Fragment = &GetPodAction{} D. var fragment Fragment = GetPodAction{}
参考答案:ACD
【中级】关于GoMock,下面说法正确的是() A. GoMock可以对interface打桩 B. GoMock可以对类的成员函数打桩 C. GoMock可以对函数打桩 D. GoMock打桩后的依赖注入可以通过GoStub完成
参考答案:AD
【中级】关于接口,下面说法正确的是() A. 只要两个接口拥有相同的方法列表(次序不同不要紧),那么它们就是等价的,可以相互赋值 B. 如果接口A的方法列表是接口B的方法列表的子集,那么接口B可以赋值给接口A C. 接口查询是否成功,要在运行期才能够确定 D. 接口赋值是否可行,要在运行期才能够确定
参考答案:ABC
【初级】关于channel,下面语法正确的是() A. var ch chan int B. ch := make(chan int) C.
参考答案:ABC
【初级】关于同步锁,下面说法正确的是() A. 当一个goroutine获得了Mutex后,其他goroutine就只能乖乖的等待,除非该goroutine释放这个Mutex B. RWMutex在读锁占用的情况下,会阻止写,但不阻止读 C. RWMutex在写锁占用情况下,会阻止任何其他goroutine(无论读和写)进来,整个锁相当于由该goroutine独占 D. Lock()操作需要保证有Unlock()或RUnlock()调用与之对应
参考答案:ABC
【中级】 golang中大多数数据类型都可以转化为有效的JSON文本,下面几种类型除外() A. 指针 B. channel C. complex D. 函数
参考答案:BCD
【中级】关于go vendor,下面说法正确的是() A. 基本思路是将引用的外部包的源代码放在当前工程的vendor目录下面 B. 编译go代码会优先从vendor目录先寻找依赖包 C. 可以指定引用某个特定版本的外部包 D. 有了vendor目录后,打包当前的工程代码到其他机器的$GOPATH/src下都可以通过编译
参考答案:ABD
【初级】 flag是bool型变量,下面if表达式符合编码规范的是() A. if flag == 1 B. if flag C. if flag == false D. if !flag
参考答案:BD
【初级】 value是整型变量,下面if表达式符合编码规范的是() A. if value == 0 B. if value C. if value != 0 D. if !value
参考答案:AC
【中级】关于函数返回值的错误设计,下面说法正确的是() A. 如果失败原因只有一个,则返回bool B. 如果失败原因超过一个,则返回error C. 如果没有失败原因,则不返回bool或error D. 如果重试几次可以避免失败,则不要立即返回bool或error
参考答案:ABCD
【中级】关于异常设计,下面说法正确的是() A. 在程序开发阶段,坚持速错,让程序异常崩溃 B. 在程序部署后,应恢复异常避免程序终止 C. 一切皆错误,不用进行异常设计 D. 对于不应该出现的分支,使用异常处理
参考答案:ABD
【中级】关于slice或map操作,下面正确的是() A. var s []int
s =append(s,1)
B.
var mmap[string]int
m["one"]= 1
C.
var s[]int
s =make([]int, 0)
s =append(s,1)
D.
var mmap[string]int
m =make(map[string]int)
m["one"]= 1
参考答案:ACD
【中级】关于channel的特性,下面说法正确的是() A. 给一个 nil channel 发送数据,造成永远阻塞 B. 从一个 nil channel 接收数据,造成永远阻塞 C. 给一个已经关闭的 channel 发送数据,引起 panic D. 从一个已经关闭的 channel 接收数据,如果缓冲区中为空,则返回一个零值
参考答案:ABCD
【中级】关于无缓冲和有冲突的channel,下面说法正确的是() A. 无缓冲的channel是默认的缓冲为1的channel B. 无缓冲的channel和有缓冲的channel都是同步的 C. 无缓冲的channel和有缓冲的channel都是非同步的 D. 无缓冲的channel是同步的,而有缓冲的channel是非同步的
参考答案:D
【中级】关于异常的触发,下面说法正确的是() A. 空指针解析 B. 下标越界 C. 除数为0 D. 调用panic函数
参考答案:ABCD
【中级】关于cap函数的适用类型,下面说法正确的是() A. array B. slice C. map D. channel
参考答案:ABD
【中级】关于beego框架,下面说法正确的是() A. beego是一个golang实现的轻量级HTTP框架 B. beego可以通过注释路由、正则路由等多种方式完成url路由注入 C. 可以使用bee new工具生成空工程,然后使用bee run命令自动热编译 D. beego框架只提供了对url路由的处理,而对于MVC架构中的数据库部分未提供框架支持
参考答案:ABC
【中级】关于goconvey,下面说法正确的是() A. goconvey是一个支持golang的单元测试框架 B. goconvey能够自动监控文件修改并启动测试,并可以将测试结果实时输出到web界面 C. goconvey提供了丰富的断言简化测试用例的编写 D. goconvey无法与go test集成
参考答案:ABC
【中级】关于go vet,下面说法正确的是() A. go vet是golang自带工具go tool vet的封装 B. 当执行go vet database时,可以对database所在目录下的所有子文件夹进行递归检测 C. go vet可以使用绝对路径、相对路径或相对GOPATH的路径指定待检测的包 D. go vet可以检测出死代码
参考答案:ACD
100. 【中级】关于map,下面说法正确的是() A. map反序列化时json.unmarshal的入参必须为map的地址 B. 在函数调用中传递map,则子函数中对map元素的增加不会导致父函数中map的修改 C. 在函数调用中传递map,则子函数中对map元素的修改不会导致父函数中map的修改 D. 不能使用内置函数delete删除map的元素
参考答案:A
101. 【中级】关于GoStub,下面说法正确的是() A. GoStub可以对全局变量打桩 B. GoStub可以对函数打桩 C. GoStub可以对类的成员方法打桩 D. GoStub可以打动态桩,比如对一个函数打桩后,多次调用该函数会有不同的行为
参考答案:ABD
102. 【初级】关于select机制,下面说法正确的是() A. select机制用来处理异步IO问题 B. select机制最大的一条限制就是每个case语句里必须是一个IO操作 C. golang在语言级别支持select关键字 D. select关键字的用法与switch语句非常类似,后面要带判断条件
参考答案:ABC
103. 【初级】关于内存泄露,下面说法正确的是() A. golang有自动垃圾回收,不存在内存泄露 B. golang中检测内存泄露主要依靠的是pprof包 C. 内存泄露可以在编译阶段发现 D. 应定期使用浏览器来查看系统的实时内存信息,及时发现内存泄露问题
参考答案:BD
———————————————— 原文链接:https://blog.youkuaiyun.com/itcastcpp/article/details/80462619 ————————————————
剑曼红尘
2020-03-09 10:46:25
0 浏览量
回答数 0