是否可以从OS X中的程序模拟鼠标的动作?具体来说,简短的版本是我试图使用两个网络摄像头模拟触摸屏.假设我可以获得X,Y位置,我可以将信息作为鼠标移动或点击发送到操作系统吗?
编辑 - 或者如果在另一个操作系统中特别容易,我愿意考虑这一点.
我正试图在窗口上模拟鼠标点击.我目前的成功如下(我使用的是Python,但它应该适用于一般的win32):
win32api.SetCursorPos((x,y))
win32api.mouse_event(win32con.MOUSEEVENTF_LEFTDOWN,0,0)
win32api.mouse_event(win32con.MOUSEEVENTF_LEFTUP,0,0)
Run Code Online (Sandbox Code Playgroud)
这很好用.但是,如果在我手动移动鼠标时发生单击,则光标位置会被抛弃.有没有办法直接将点击发送到给定(x,y)坐标而不将鼠标移动到那里?我尝试了类似下面的东西并没有太多运气:
nx = x*65535/win32api.GetSystemMetrics(0)
ny = y*65535/win32api.GetSystemMetrics(1)
win32api.mouse_event(win32con.MOUSEEVENTF_LEFTDOWN | \
win32con.MOUSEEVENTF_ABSOLUTE,nx,ny)
win32api.mouse_event(win32con.MOUSEEVENTF_LEFTUP | \
win32con.MOUSEEVENTF_ABSOLUTE,nx,ny)
Run Code Online (Sandbox Code Playgroud) input ×2
macos ×2
mouse ×2
automation ×1
osascript ×1
python ×1
terminal ×1
touchscreen ×1
winapi ×1