我想知道是否可以sys.argv在jupyter/ipython笔记本中使用命令行参数填充(或其他一些结构),类似于通过python脚本完成的操作.
例如,如果我按如下方式运行python脚本:
python test.py False
然后sys.argv将包含参数False.但是,如果我以类似的方式运行一个jupyter笔记本:
jupyter notebook test.ipynb False
然后命令行参数丢失.有没有办法从笔记本本身访问这个参数?
python command-line-arguments jupyter jupyter-notebook papermill
我曾经saver=tf.train.Saver()保存过我训练过的模型,我得到了三种名为的文件:
并且文件名为:
与.ckpt文件的连接是什么?
我看到有人用.ckpt文件保存模型,我不知道怎么做.如何将模型保存为.pb文件?
我是深度学习的新手,我想使用预训练 (EAST) 模型从 AI Platform Serving 提供服务,开发人员提供了以下文件:
我想把它转换成 TensorFlow.pb格式。有没有办法做到这一点?我从这里拿了模型
完整代码可在此处获得。
我查了一下here,它显示了以下代码来转换它:
从 tensorflow/models/research/
INPUT_TYPE=image_tensor
PIPELINE_CONFIG_PATH={path to pipeline config file}
TRAINED_CKPT_PREFIX={path to model.ckpt}
EXPORT_DIR={path to folder that will be used for export}
python object_detection/export_inference_graph.py \
--input_type=${INPUT_TYPE} \
--pipeline_config_path=${PIPELINE_CONFIG_PATH} \
--trained_checkpoint_prefix=${TRAINED_CKPT_PREFIX} \
--output_directory=${EXPORT_DIR}
Run Code Online (Sandbox Code Playgroud)
我无法弄清楚要传递什么值:
我在python jupyter笔记本中有一个代码,但我需要每天运行这个,所以我想知道是否有办法设置这个,我真的很感激它
我按照说明集成了JIRA和BitBucket. https://confluence.atlassian.com/display/AOD/Linking+a+bitbucket+or+GitHub+repository+with+JIRA+OnDemand
我在JIRA中创建了一个新项目,然后添加了多个问题,版本和组件.启用集成后,Bitbucket中不会出现任何问题,组件或版本.Bitbucket的回购创建于昨天.
是预期的行为?
BitBucket - 私有问题跟踪器 BitBucket - OAuthConsumer配置:
JIRA DVCS已配置.网址为空,这是一个问题吗?
BitBucket - 集成应用程序:JIRA DVCS和Jira Importer插件
JIRA - 我的存储库中启用了Smart Commits
尝试使用虚拟环境在MacOSX中运行Keras
版本
故障排除
日志
(venv) me$sudo pip install --upgrade keras
Collecting keras
Requirement already up-to-date: six in /Library/Python/2.7/site-packages/six-1.10.0-py2.7.egg (from keras)
Requirement already up-to-date: pyyaml in /Library/Python/2.7/site-packages (from keras)
Requirement already up-to-date: theano in /Library/Python/2.7/site-packages (from keras)
Requirement already up-to-date: numpy>=1.9.1 in /Library/Python/2.7/site-packages (from theano->keras)
Requirement already up-to-date: scipy>=0.14 in /Library/Python/2.7/site-packages (from theano->keras)
Installing collected packages: keras
Successfully installed keras-2.0.5
(venv) me$ python -c "import keras; print(keras.__version__)"
Traceback (most recent call last):
File "<string>", line 1, …Run Code Online (Sandbox Code Playgroud) TF 1.12:
尝试使用 tf.keras.layers 将 Pre-canned estimator 转换为 Keras:
estimator = tf.estimator.DNNClassifier(
model_dir='/tmp/keras',
feature_columns=deep_columns,
hidden_units = [100, 75, 50, 25],
config=run_config)
Run Code Online (Sandbox Code Playgroud)
到使用 tf.keras.layers 的 Keras 模型:
model = tf.keras.models.Sequential()
model.add(tf.keras.layers.Dense(100, activation=tf.nn.relu, input_shape=(14,)))
model.add(tf.keras.layers.Dense(75))
model.add(tf.keras.layers.Dense(50))
model.add(tf.keras.layers.Dense(25))
model.add(tf.keras.layers.Dense(1, activation=tf.nn.sigmoid))
model.compile(optimizer=tf.keras.optimizers.RMSprop(), loss=tf.keras.losses.binary_crossentropy, metrics=['accuracy'])
model.summary()
estimator = tf.keras.estimator.model_to_estimator(model, model_dir='/tmp/keras', config=run_config)
Run Code Online (Sandbox Code Playgroud)
当我运行 Keras 模型时,我得到:
for n in range(40 // 2):
estimator.train(input_fn=train_input_fn)
results = estimator.evaluate(input_fn=eval_input_fn)
# Display evaluation metrics
tf.logging.info('Results at epoch %d / %d', (n + 1) * 2, 40)
tf.logging.info('-' * 60)
Run Code Online (Sandbox Code Playgroud)
当我训练它时,我收到此错误:
主要代码: …
我前段时间创建了一个 GCP AI Platform Notebook 实例,对于我尝试安装的许多扩展,版本似乎太低了。我做了一个pip install upgrade jupyterlab并重新启动了虚拟机实例。当我点击 时OPEN JUPYTERLAB,我发现更新没有生效。
这样做的正确方法是什么?
我jupyter在 GCP AI Platform 笔记本实例的终端中以用户身份登录。
我只想安装一些东西(无法通过 pip 安装),但无法使用 gcloud 命令以 root 用户身份进行 ssh。
\n如果有人可以分享获得执行这些操作的权限的正确方法的指针,那就太好了。
\n以下是导致问题的示例包安装的片段 -
\n(base)~/datascience$ sudo cp ./pip-bash-completion/pip /etc/bash_completion.d/\n\nWe trust you have received the usual lecture from the local System\nAdministrator. It usually boils down to these three things:\n\n #1) Respect the privacy of others.\n #2) Think before you type.\n #3) With great power comes great responsibility.\n\n[sudo] password for jupyter: \nRun Code Online (Sandbox Code Playgroud)\nsudo根据我看到的信息,我应该有权访问 -
(base)~/datascience$ sudo cp ./pip-bash-completion/pip /etc/bash_completion.d/\n\nWe trust you …Run Code Online (Sandbox Code Playgroud) 在 TensorFlow 教程中,我发现了一段从 TensorFlow 数据集加载数据集的代码。
dataset, metadata = tfds.load('cycle_gan/horse2zebra',
with_info=True, as_supervised=True)
train_horses, train_zebras = dataset['trainA'], dataset['trainB']
test_horses, test_zebras = dataset['testA'], dataset['testB']
Run Code Online (Sandbox Code Playgroud)
但是,我想加载我自己的数据集,该数据集不是来自 TensorFlow 数据集。在收集了我自己的数据集之后,我不知道如何加载我的数据集并将其处理为与 TensorFlow tfds 相同的格式。
任何人都可以教我怎么做吗?我的数据集文件夹也具有相同的格式:trainA、trainB、testA、testB。