小编use*_*419的帖子

静态旋转字体 - 真棒图标

我想将我的字体真棒图标静态旋转45度.它在网站上说:

要任意旋转和翻转图标,请使用fa-rotate-*和fa-flip-*类.

但是,干嘛

<i class="fa fa-link fa-rotate-45" style="font-size:1.5em"></i>
Run Code Online (Sandbox Code Playgroud)

不起作用,而替换fa-rotate-45fa-rotate-90.这是否意味着他们实际上不能随意旋转?

css rotation font-awesome

86
推荐指数
5
解决办法
11万
查看次数

文件Uri方案和相关文件

假设uri的方案是"文件".还假设路径以'.'开头.

示例路径是'./.bashrc'.fulluri看起来怎么样?'file://./.bashrc'对我来说很奇怪.

uri file relative-path url-scheme file-uri

58
推荐指数
6
解决办法
7万
查看次数

为什么PySpark找不到py4j.java_gateway?

我安装了Spark,运行了sbt程序集,并且可以毫无问题地打开bin/pyspark.但是,我遇到了将pyspark模块加载到ipython中的问题.我收到以下错误:

In [1]: import pyspark
---------------------------------------------------------------------------
ImportError                               Traceback (most recent call last)
<ipython-input-1-c15ae3402d12> in <module>()
----> 1 import pyspark

/usr/local/spark/python/pyspark/__init__.py in <module>()
     61
     62 from pyspark.conf import SparkConf
---> 63 from pyspark.context import SparkContext
     64 from pyspark.sql import SQLContext
     65 from pyspark.rdd import RDD

/usr/local/spark/python/pyspark/context.py in <module>()
     28 from pyspark.conf import SparkConf
     29 from pyspark.files import SparkFiles
---> 30 from pyspark.java_gateway import launch_gateway
     31 from pyspark.serializers import PickleSerializer, BatchedSerializer, UTF8Deserializer, \
     32     PairDeserializer, CompressedSerializer

/usr/local/spark/python/pyspark/java_gateway.py in <module>()
     24 from subprocess …
Run Code Online (Sandbox Code Playgroud)

ipython python-2.7 py4j apache-spark

43
推荐指数
3
解决办法
5万
查看次数

spark-submit和pyspark有什么区别?

如果我启动pyspark然后运行此命令:

import my_script; spark = my_script.Sparker(sc); spark.collapse('./data/')
Run Code Online (Sandbox Code Playgroud)

一切都很好.但是,如果我尝试通过命令行和spark-submit执行相同的操作,则会收到错误消息:

Command: /usr/local/spark/bin/spark-submit my_script.py collapse ./data/
  File "/usr/local/spark/python/pyspark/rdd.py", line 352, in func
    return f(iterator)
  File "/usr/local/spark/python/pyspark/rdd.py", line 1576, in combineLocally
    merger.mergeValues(iterator)
  File "/usr/local/spark/python/pyspark/shuffle.py", line 245, in mergeValues
    for k, v in iterator:
  File "/.../my_script.py", line 173, in _json_args_to_arr
    js = cls._json(line)
RuntimeError: uninitialized staticmethod object
Run Code Online (Sandbox Code Playgroud)

my_script:

...
if __name__ == "__main__":
    args = sys.argv[1:]
    if args[0] == 'collapse':
        directory = args[1]
        from pyspark import SparkContext
        sc = SparkContext(appName="Collapse")
        spark = Sparker(sc)
        spark.collapse(directory)
        sc.stop() …
Run Code Online (Sandbox Code Playgroud)

python apache-spark pyspark

17
推荐指数
1
解决办法
4万
查看次数

有多种型号的太阳黑子(在Rails中)

我有三个型号(User,Tag,Product)和他们互动ST User有很多TagsProducts.

出于搜索目的,我希望能够搜索(使用一个搜索栏)用户名,标签名称和产品说明.我还想搜索产品页面,但这仅与标签名称和产品说明相关.

这是两个例子:

搜索:"Linus Torvalds"返回三个模型中Linus Torvalds的所有实例,其中任何用户名实例都放在更高的位置.

搜索:带有年龄的"Linux":"20-25"返回所有包含名称/描述中包含"Linux"且属于该年龄范围的用户的用户,以及包含"Linux"标签的用户以及谁拥有属于该年龄段的产品.请注意,如果搜索没有包含年龄,那么它将默认为适合"Linux"部分的所有人而不是任何人.

我的问题是这样做的最佳方法是什么?我应该用自己的控制器创建搜索模型吗?我应该忽略它并在共享文件夹中包含搜索部分吗?还有哪些其他方法?

非常感谢.

ruby-on-rails sunspot

14
推荐指数
1
解决办法
5333
查看次数

Google图表y轴值

我有一组配对数据:

[(x_1,y_1), (x_2,y_2), (x_3, y_3)] 
Run Code Online (Sandbox Code Playgroud)

并且我想XYChart使用python GChartWrapper库来制作它,使得y轴值是数据的转换.

一个简单的例子是具有上侧的实际值,对数曲线图,例如,如果y_1,y_2y_3代表log_10值,则图形将图表它们的方式,但是,从y轴上的标签可以是10^{y_1},10^{y_2},和10^{y_3}.

我试过玩chxr这个但是这不起作用,因为它不仅仅是轴上的标签改变了,而是整个轴.例如,如果我从上面有一个日志和我的y值是0,1,2.我想图表看起来相同,但标签改为10^0,10^1,10^2, 1,10,100.但是因为gchart想要保留比例,所以它会尝试将其转换为范围来自0 -> 100而不仅仅是更改标签.

我该怎么做呢?

python charts google-visualization

14
推荐指数
1
解决办法
897
查看次数

更快速地计算频率和从长到宽的方式

我试图获得两个变量的水平的每个组合的计数,"周"和"id".我希望结果将"id"作为行,将"week"作为列,将计数作为值.

到目前为止我尝试过的例子(尝试过其他一些东西,包括添加一个虚拟变量= 1然后再加fun.aggregate = sum上它):

library(plyr)
ddply(data, .(id), dcast, id ~ week, value_var = "id", 
        fun.aggregate = length, fill = 0, .parallel = TRUE)
Run Code Online (Sandbox Code Playgroud)

但是,我必须做错事,因为这个功能没有完成.有一个更好的方法吗?

输入:

id      week
1       1
1       2
1       3
1       1
2       3
Run Code Online (Sandbox Code Playgroud)

输出:

  1  2  3
1 2  1  1
2 0  0  1
Run Code Online (Sandbox Code Playgroud)

aggregate r plyr reshape2

8
推荐指数
3
解决办法
1828
查看次数

Python,Brew和MySQLdb

我一直在使用brew安装运行python.我使用安装工具安装了mysql_python egg(根据mysql_python说明进行标准安装),并将其安装到/usr/local/lib/python2.7/site-packages/.已处理的依赖项等

然后我去运行python控制台.我可以导入其他东西(例如import django; print django.VERSION工作)但是当我导入MySQLdb时,我收到以下错误:

Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/usr/local/Cellar/python/2.7.1/lib/python2.7/site-packages/MySQL_python-1.2.3-py2.7-macosx-10.4-x86_64.egg/MySQLdb/__init__.py", line 19, in <module>
    import _mysql
ImportError: dlopen(/usr/local/Cellar/python/2.7.1/lib/python2.7/site-packages/MySQL_python-1.2.3-py2.7-macosx-10.4-x86_64.egg/_mysql.so, 2): Library not loaded: libmysqlclient.18.dylib
  Referenced from: /usr/local/Cellar/python/2.7.1/lib/python2.7/site-packages/MySQL_python-1.2.3-py2.7-macosx-10.4-x86_64.egg/_mysql.so
  Reason: image not found
Run Code Online (Sandbox Code Playgroud)

任何见解?非常感谢.

python mysql homebrew mysql-python

7
推荐指数
1
解决办法
2万
查看次数

使用OpenCV detectMultiScale找到我的脸

我很确定我的一般主题是正确的,但我找不到任何面孔.我的代码是从中读取的c=cv2.VideoCapture(0),即计算机的摄像机.然后我进行以下设置以获得面部的位置.正如你所看到的,我循环遍历不同的scaleFactors和minNeighbors,但rects总是返回空.我还尝试了opencv/data/haarcascades包中包含的四个不同haarcascade xml文件中的每一个.

有小费吗?

while(1):
    ret, frame = c.read()
    rects = find_face_from_img(frame)

def detect(img, cascade):
    for scale in [float(i)/10 for i in range(11, 15)]:
        for neighbors in range(2,5):
            rects = cascade.detectMultiScale(img, scaleFactor=scale, minNeighbors=neighbors,
                                             minSize=(20, 20), flags=cv2.cv.CV_HAAR_SCALE_IMAGE)
            print 'scale: %s, neighbors: %s, len rects: %d' % (scale, neighbors, len(rects))

def find_face_from_img(img):
    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    gray = cv2.equalizeHist(gray)
    rects = detect(gray, cascade)
Run Code Online (Sandbox Code Playgroud)

python opencv face-detection

6
推荐指数
1
解决办法
2万
查看次数

如何更改spark.ui.port?

我使用的火花提交,并试图做到这一点与jar文件.setExecutorEnv("spark.ui.port", "4050")的火花范围内,但它仍试图打4040,然后我试图把一个--conf spark.ui.port=4050spark-submit和前--class CLASSNAME,但没有任何工作,这个时候说"错误:无法识别选项' - conf'".我该如何解决这个问题?我遇到的实际错误是有一个活跃的火花服务器,其他人正在使用,这阻止了这个spark-submit启动jetty服务器.它没有打到其他端口,所以我试图强迫它这样做.

jetty apache-spark

6
推荐指数
1
解决办法
9692
查看次数