我正在设置一个订阅RSS提要的node.js服务器。当有新项目发布到提要时,我希望服务器解析该信息并将其传递给API,该API将警告最终用户。我可以将feedparser用作订户吗?
我知道该库创建了一个EventEmitter来触发动作。是否可以导出此功能并使它与我的Express应用程序并行运行?
从解析器示例中获取:
const FeedParser = require('feedparser')
const request = require('request')
const subscriber = async () => {
const req = request('https://www.reddit.com/.rss')
const feedparser = new FeedParser()
req.on('error', (error) => {
console.log(error)
})
req.on('response', (r) => {
const stream = this
if (r.statusCode !== 200) {
this.emit('error', new Error('bad status code'))
} else {
stream.pipe(feedparser)
}
})
feedparser.on('readable', () => {
// This is where the action is!
const stream = this
var item = '' …Run Code Online (Sandbox Code Playgroud) 我正在实现一个程序来检测摄像机图像中的线条。问题是,当照片模糊时,我的行检测算法会丢失几行。有没有一种方法可以在cv.HoughLines()不编辑参数的情况下提高功能的准确性?
输入图像示例:
所需图片:
我当前的实现:
def find_lines(img):
gray = cv.cvtColor(img, cv.COLOR_BGR2GRAY)
edges = cv.dilate(gray,np.ones((3,3), np.uint8),iterations=5)
edges = cv.Canny(gray, 50, 150, apertureSize=3)
lines = cv.HoughLines(edges, 1, np.pi/180, 350)
Run Code Online (Sandbox Code Playgroud) 我从姿势估计 tflite 模型开始,用于获取人类的关键点。
https://www.tensorflow.org/lite/models/pose_estimation/overview
我已经开始拟合单个图像或一个人并调用模型:
img = cv.imread('photos\standing\\3.jpg')
img = tf.reshape(tf.image.resize(img, [257,257]), [1,257,257,3])
model = tf.lite.Interpreter('models\posenet_mobilenet_v1_100_257x257_multi_kpt_stripped.tflite')
model.allocate_tensors()
input_details = model.get_input_details()
output_details = model.get_output_details()
floating_model = input_details[0]['dtype'] == np.float32
if floating_model:
img = (np.float32(img) - 127.5) / 127.5
model.set_tensor(input_details[0]['index'], img)
model.invoke()
output_data = model.get_tensor(output_details[0]['index'])# o()
offset_data = model.get_tensor(output_details[1]['index'])
results = np.squeeze(output_data)
offsets_results = np.squeeze(offset_data)
print("output shape: {}".format(output_data.shape))
np.savez('sample3.npz', results, offsets_results)
Run Code Online (Sandbox Code Playgroud)
但我正在努力正确解析输出以获得每个身体部位的坐标/置信度。有没有人有解释这个模型结果的 python 例子?(例如:使用它们将关键点映射回原始图像)
我的代码(一个类的片段,它基本上直接从模型输出中获取 np 数组):
def get_keypoints(self, data):
height, width, num_keypoints = data.shape
keypoints = []
for keypoint in range(0, …Run Code Online (Sandbox Code Playgroud) 我已经使用 openCV 处理了图像以获得图像图案。图像图案分别由水平线和垂直线的 2 个Python列表表示。线条代表图案的边界。
fx = horizontal lines
fy = vertical lines
每个列表根据距图像左上角的距离按顺序排列。接下来,我使用以下命令来计算这些发现的线的交点:
def get_corners(fx,fy):
corners = []
for x_line in fx:
for y_line in fy:
corner = get_intersection(x_line,y_line)
if corner is not None:
corners.append(corner)
Run Code Online (Sandbox Code Playgroud)
这应该给我按从左到右、从上到下的corners顺序(格式:) 。(x,y)现在我想使用这些坐标从图像中裁剪出矩形。
列表的大小corners各不相同并且模式堆叠,这意味着它们有共同点。给定点列表、线列表 和 的 和fx大小fy:
如何使用这些点来裁剪矩形?
get_corners()如果需要,请随意更改。
下面是一个示例:模式检测在 2x2 中生成 4 个可能的矩形。这意味着列表points中总共有 9 个值。
Points: [[],[],[],
[],[],[],
[],[],[]]
Run Code Online (Sandbox Code Playgroud)
我可以使用如下方式裁剪第一个矩形:
Points: [[],[],[],
[],[],[],
[],[],[]]
Run Code Online (Sandbox Code Playgroud) opencv ×2
python ×2
algorithm ×1
eventemitter ×1
express ×1
image ×1
node.js ×1
python-3.x ×1
rss ×1
tensorflow ×1