小编Jos*_*key的帖子

快速服务器上的RSS订阅实现

我正在设置一个订阅RSS提要的node.js服务器。当有新项目发布到提要时,我希望服务器解析该信息并将其传递给API,该API将警告最终用户。我可以将feedparser用作订户吗?

我知道该库创建了一个EventEmitter来触发动作。是否可以导出此功能并使它与我的Express应用程序并行运行?

从解析器示例中获取:

const FeedParser = require('feedparser')
const request = require('request')

const subscriber = async () => {
  const req = request('https://www.reddit.com/.rss')
  const feedparser = new FeedParser()
  req.on('error', (error) => {
    console.log(error)
  })
  req.on('response', (r) => {
    const stream = this
    if (r.statusCode !== 200) {
      this.emit('error', new Error('bad status code'))
    } else {
      stream.pipe(feedparser)
    }
  })
  feedparser.on('readable', () => {
    // This is where the action is!
    const stream = this
    var item = '' …
Run Code Online (Sandbox Code Playgroud)

rss node.js express eventemitter

5
推荐指数
1
解决办法
151
查看次数

使用OpenCV提高检测线的准确性

我正在实现一个程序来检测摄像机图像中的线条。问题是,当照片模糊时,我的行检测算法会丢失几行。有没有一种方法可以在cv.HoughLines()不编辑参数的情况下提高功能的准确性?

输入图像示例:

模糊。

所需图片:

在此处输入图片说明

我当前的实现:

def find_lines(img):
    gray = cv.cvtColor(img, cv.COLOR_BGR2GRAY)
    edges = cv.dilate(gray,np.ones((3,3), np.uint8),iterations=5)
    edges = cv.Canny(gray, 50, 150, apertureSize=3)
    lines = cv.HoughLines(edges, 1, np.pi/180, 350)
Run Code Online (Sandbox Code Playgroud)

python opencv image image-processing computer-vision

5
推荐指数
1
解决办法
250
查看次数

如何解析姿态估计 tflite 模型的热图输出?

我从姿势估计 tflite 模型开始,用于获取人类的关键点。

https://www.tensorflow.org/lite/models/pose_estimation/overview

我已经开始拟合单个图像或一个人并调用模型:

img = cv.imread('photos\standing\\3.jpg')
img = tf.reshape(tf.image.resize(img, [257,257]), [1,257,257,3])
model = tf.lite.Interpreter('models\posenet_mobilenet_v1_100_257x257_multi_kpt_stripped.tflite')
model.allocate_tensors()
input_details = model.get_input_details()
output_details = model.get_output_details()
floating_model = input_details[0]['dtype'] == np.float32
if floating_model:
    img = (np.float32(img) - 127.5) / 127.5
model.set_tensor(input_details[0]['index'], img)
model.invoke()
output_data =  model.get_tensor(output_details[0]['index'])# o()
offset_data = model.get_tensor(output_details[1]['index'])
results = np.squeeze(output_data)
offsets_results = np.squeeze(offset_data)
print("output shape: {}".format(output_data.shape))
np.savez('sample3.npz', results, offsets_results)
Run Code Online (Sandbox Code Playgroud)

但我正在努力正确解析输出以获得每个身体部位的坐标/置信度。有没有人有解释这个模型结果的 python 例子?(例如:使用它们将关键点映射回原始图像)

我的代码(一个类的片段,它基本上直接从模型输出中获取 np 数组):

def get_keypoints(self, data):
        height, width, num_keypoints = data.shape
        keypoints = []
        for keypoint in range(0, …
Run Code Online (Sandbox Code Playgroud)

python machine-learning tensorflow tensorflow-lite

5
推荐指数
1
解决办法
2075
查看次数

给定网格点查找对应的矩形坐标

我已经使用 openCV 处理了图像以获得图像图案。图像图案分别由水平线和垂直线的 2 个Python列表表示。线条代表图案的边界。

fx = horizontal lines fy = vertical lines

每个列表根据距图像左上角的距离按顺序排列。接下来,我使用以下命令来计算这些发现的线的交点:

def get_corners(fx,fy):
    corners = []
    for x_line in fx:
        for y_line in fy:
            corner = get_intersection(x_line,y_line)
            if corner is not None:
                corners.append(corner)
Run Code Online (Sandbox Code Playgroud)

这应该给我按从左到右、从上到下的corners顺序(格式:) 。(x,y)现在我想使用这些坐标从图像中裁剪出矩形。

列表的大小corners各不相同并且模式堆叠,这意味着它们有共同点。给定点列表、线列表 和 的 和fx大小fy

如何使用这些点来裁剪矩形?

get_corners()如果需要,请随意更改。

下面是一个示例:模式检测在 2x2 中生成 4 个可能的矩形。这意味着列表points中总共有 9 个值。

Points: [[],[],[],
         [],[],[],
         [],[],[]]
Run Code Online (Sandbox Code Playgroud)

我可以使用如下方式裁剪第一个矩形:

Points: [[],[],[],
         [],[],[],
         [],[],[]]
Run Code Online (Sandbox Code Playgroud)

algorithm opencv python-3.x

3
推荐指数
1
解决办法
1933
查看次数