我对Github/VCS很新.
当我尝试在Github上共享我的项目时,我收到以下错误消息.
Can't finish GitHub sharing process
Successfully created project 'myproject' on GitHub, but initial push failed:
remote: error: GH007: Your push would publish a private email address.
failed to push some refs to 'https://github.com/me/myproject.git'
Run Code Online (Sandbox Code Playgroud)
我用谷歌搜索了错误信息,没有点击.我也搜索过stackexchange,但没有雪茄.关于如何解决这个问题的任何想法?
编写一个bash脚本以连接到gss:http://ws-feed.gdax.com 上的GDAX的Websocket Feed,但curl似乎不支持这个
curl "wss://ws-feed.gdax.com"
curl: (1) Protocol "wss" not supported or disabled in libcurl
Run Code Online (Sandbox Code Playgroud) 做的有什么好处:shm_open跟着一个mmap?
为什么不创建一个常规文件,然后将其传递fd给mmap?
我看不到它的优点shm_open- 这些只是参考,不是吗?
我读过全家人.在我看来,"秘密"在于mmaping动作 - 文件"类型"似乎毫无意义.
任何指针都会很好,尤其是性能帐户.
我的上下文是一个(循环可写的)缓冲区(比如128MB),它将被不断地写成一个进程,并且不断地从另一个进程转发.
举个例子:这个 open/mmap方法有什么问题.
编辑
准确地说,下面的一个比另一个更好:
fd = open("/dev/shm/myshm.file", O_CREAT|O_RDWR, S_IRUSR | S_IWUSR);
mem = mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_SHARED, fd, 0);
Run Code Online (Sandbox Code Playgroud)
与
fd = shm_open("/myshm.file", O_RDWR|O_CREATE, S_IRUSR | S_IWUSR);
mem = mmap(...same as before...);
Run Code Online (Sandbox Code Playgroud)
当我在fs open下创建一个带有常规文件的文件/dev/shm,并向其转储了一堆垃圾时,我的可用内存下降了1G,我的可用磁盘空间保持不变.
这两种方法有什么区别?
打字
import this
Run Code Online (Sandbox Code Playgroud)
将返回Python的Zen,但我似乎找不到有关如何将其设置为等于字符串变量的解决方案,我可以在我的代码中进一步使用...
我只是在查看以下输出,并试图将我的想法围绕在数字上:
==2906== Profiling result:
Time(%) Time Calls Avg Min Max Name
23.04% 10.9573s 16436 666.67us 64.996us 1.5927ms sgemm_sm35_ldg_tn_32x16x64x8x16
22.28% 10.5968s 14088 752.18us 612.13us 1.6235ms sgemm_sm_heavy_nt_ldg
18.09% 8.60573s 14088 610.86us 513.05us 1.2504ms sgemm_sm35_ldg_nn_128x8x128x16x16
16.48% 7.84050s 68092 115.15us 1.8240us 503.00us void axpy_kernel_val<float, int=0>(cublasAxpyParamsVal<float>)
...
0.25% 117.53ms 4744 24.773us 896ns 11.803ms [CUDA memcpy HtoD]
0.23% 107.32ms 37582 2.8550us 1.8880us 8.9556ms [CUDA memcpy DtoH]
...
==2906== API calls:
Time(%) Time Calls Avg Min Max Name
83.47% 41.8256s 42326 988.18us 16.923us 13.332ms cudaMemcpy
9.27% 4.64747s …Run Code Online (Sandbox Code Playgroud) 我构建了一个通过多线程(通过 Jupyter Notebook、python 2.7、anaconda)启动了 XX 次的刮板(worker)。脚本采用以下格式,如 python.org 所述:
def worker():
while True:
item = q.get()
do_work(item)
q.task_done()
q = Queue()
for i in range(num_worker_threads):
t = Thread(target=worker)
t.daemon = True
t.start()
for item in source():
q.put(item)
q.join() # block until all tasks are done
Run Code Online (Sandbox Code Playgroud)
当我按原样运行脚本时,没有问题。脚本完成后释放内存。
但是,我想运行上述脚本 20 次(排序的批处理),所以我将提到的脚本转换为一个函数,并使用以下代码运行该函数:
def multithreaded_script():
my script #code from above
x = 0
while x<20:
x +=1
multithredaded_script()
Run Code Online (Sandbox Code Playgroud)
每次迭代都会增加内存,最终系统开始将其写入磁盘。
有没有办法在每次运行后清除内存?
我试过:
sleep(30)在每次迭代结束时设置(以防 ram 需要时间释放)似乎没有任何帮助。关于在 While 语句中每次运行后我还可以尝试清除内存的其他想法?如果没有,有没有更好的方法来执行我的脚本 XX 次,这不会吃掉 ram?
先感谢您。
我面临一个问题。请帮助我
这是代码:
import pandas
import quandl
import time
df = quandl.get('FINRA/FNSQ_GOOGL')
print(df.head())
Run Code Online (Sandbox Code Playgroud)
我面临的错误是:
Traceback (most recent call last):
File "C:\Users\Desktop\My Folder\test.py", line 5, in <module>
df = quandl.get('FINRA/FNSQ_GOOGL')
File "C:\Python27\lib\site-packages\quandl\get.py", line 48, in get
data = Dataset(dataset_args['code']).data(params=kwargs, handle_column_not_found=True)
File "C:\Python27\lib\site-packages\quandl\model\dataset.py", line 47, in data
return Data.all(**updated_options)
File "C:\Python27\lib\site-packages\quandl\operations\list.py", line 14, in all
r = Connection.request('get', path, **options)
File "C:\Python27\lib\site-packages\quandl\connection.py", line 36, in request
return cls.execute_request(http_verb, abs_url, **options)
File "C:\Python27\lib\site-packages\quandl\connection.py", line 50, in execute_request
raise e
SSLError: HTTPSConnectionPool(host='www.quandl.com', port=443): Max retries …Run Code Online (Sandbox Code Playgroud) 分析一段numpy代码表明我大部分时间都在这两个函数中
numpy/matrixlib/defmatrix.py.__getitem__:301
numpy/matrixlib/defmatrix.py.__array_finalize__:279
Run Code Online (Sandbox Code Playgroud)
这是Numpy来源:
问题#1:
__getitem__似乎每当我使用类似的东西时都会调用my_array[arg]它,如果arg不是整数而是切片,它会变得越来越贵.有没有办法加快对数组切片的调用?
例如
for i in range(idx): res[i] = my_array[i:i+10].mean()
Run Code Online (Sandbox Code Playgroud)
问题2:
什么时候__array_finalize__被调用,如何通过减少对此函数的调用次数来加快速度?
谢谢!
我试图在Arduino ide中做一个链表.
代码如下:
typedef struct ll{
struct ll * prev;
unsigned int currTime;
unsigned int stopTime;
struct ll * next;
} TIMING;
TIMING * head;
TIMING * current;
void setup();
void add_new_first(int stopTimer, TIMING * head);
void main() {
init();
setup();
// Code that uses the def
head->prev = NULL;
head->next = NULL;
head->currTime = 0;
head->stopTime = 200;
}
Run Code Online (Sandbox Code Playgroud)
最后还有功能的实际代码.
这个例子给我错误:
service_timer_cpp.cpp:5:34:错误:'TIMING'尚未声明.
当不使用定义的类型作为参数或从函数返回时,它可以正常工作.
这就是我认为它可以在c中完成并且早先为我工作的方式.我不明白为什么它不适用于Arduino环境.
假设我想对关闭灯时记录的数据拟合一条直线。现在我不小心把灯打开了,我的数据从数据点 101 开始有一个恒定的偏移量。
我怎样才能适应这个?我尝试为 x 加入一个条件,但出现错误
ValueError:具有多个元素的数组的真值不明确。使用 a.any() 或 a.all()
请记住取消注释其余代码(以遇到错误)。
import numpy as np
from scipy import optimize
import matplotlib.pyplot as plt
d1 = np.random.normal(0,0.1, 100)
d2 = np.random.normal(3,0.1, 100)
x = np.arange(0,200)
y = np.concatenate((d1,d2))
plt.plot(x, y)
# def line(x, a, b, offset):
# if x < 101:
# y = a * x + b
# else:
# y = (a * x + b) + offset
# return y
#
# popt, pcov = optimize.curve_fit(line, xdata …Run Code Online (Sandbox Code Playgroud)