在post底部的摘要
第1部分:我试图修改一个函数以适应我的数据,但是我遇到了以下错误:
Error in mutate_impl(.data, dots) :
Evaluation error: Tibble columns must have consistent lengths, only values of length one are recycled:
* Length 0: Columns `node`, `text`
* Length 2: Column `nid`
Call `rlang::last_error()` to see a backtrace.
我试图运行的
提示:我正在尝试访问SEC EDGAR数据库以提取特定的公司文件。我的urllib.request.request()有问题。目前,我需要访问网站的源代码。在此之后,我将为正文段落解析并使用re。
**import re
import urllib.request as request
import urllib.parse as parse
import pandas
import csv
'''
WE ARE finding & parsing information to find https://www.sec.gov/Archives/edgar/da
至此,我的Python代码可以正常工作,并返回几行。我需要在Python中获取每一行并在循环中处理它。第一行运行得很好,并且完成了它的功能,但是第二行永远不会运行。显然,我没有正确地循环。我相信我没有迭代结果中的每一行。代码如下: for row in results:
print(row[0])
F:\FinancialResearch\SEC\myEdgar\sec-edgar-filings\A\10-K\0000014693-21-000091\full-submission.txt
F:\FinancialResearch\SEC\myEdgar\
我使用木星笔记本和sec_edgar_downloader软件包下载10-K和
10-Q .有一些CIK-的内核在下载他们的文件时死亡。我检查了RAM,但是还好,我认为是因为递归限制。是否允许使用try和except或其他方法跳过它?
我正在使用以下代码:
`from sec_edgar_downloader import Downloader`
dl = Downloader()
for i in cik_list:
for j in ["10-K","10-Q"]:
dl.get(j, i)
我需要将几个URL写入一个JSON文件。这就是我到目前为止所做的; for index, document in enumerate(master_data):
# create a dictionary for each document in the master list
document_dict = {}
document_dict['cik_number'] = document[0]
document_dict['company_name'] =
我提取结果的方式在某种程度上将其保持为数据框架中的对角线元素。我想减少数据,保留行名和行名。即合并行名和行名。
1750:10-K:2006 1800:10-K:2006 1923:10-K:2006 2488:10-K:2006
1750:10-K:2005 0.9291217 NA NA NA
1800:10-K:2005 NA 0.9690067 NA NA
1923:10-K:2005
我有一个数据文件,我试图保存为stata .dta文件。我试过了天堂和国外的包裹,但是我发现了一些错误:
write_dta(df,"C:/Users/../df.dta")
我收到一个错误:
Error in write_dta_(data, normalizePath(path, mustWork = FALSE), version = stata_file_format(version), : Variables of type list not supported yet
外国包裹也是如此:
write.dta(df,"C:/Users/../df.dta
我有一个矩阵列表,如下所示: [[8]]
2 x 2 sparse Matrix of class "dsCMatrix"
3333:10-K:2006 3333:10-K:2005
3333:10-K:2006 1.0000000 0.9752259
3333:10-K:2005 0.9752259 1.0000000
[[9]]
2 x 2 sparse Matrix of class "dsCMatrix"
3370:10-K:2006 3370:10-
-更新--
我在试图将列表项作为键错误添加到字典中时遇到了困难:0不断出现。这是不断出现的错误:
---------------------------------------------------------------------------
KeyError Traceback (most recent call last)
<ipython-input-66-8a7b96769ff1> in <module>
4 # create a dictionary for each
这绝对很奇怪。我无法处理文本文件中的字符串。我唯一能做的就是打印出来。
这是我的代码:
val pattern = new Regex("</DOCUMENT>")
val file = Source.fromFile(fileLocale)(io.Codec("ISO8859-1"))
for (line <- file.getLines()) {
// line match {
// case "</DOCUMENT>" => {println("fo
我正试着在网上抓取SEC网站上的特定标签。我的代码同时使用了XML和XBRL。我不确定是否应该使用XML或XBRL从位于SEC上的这些标记中提取值。在这个问题上,我用我的代码打印了一个空白列表。基本上,我希望提取特定的标记,但我不知道是使用XML还是XBRL,以及如何将这些标记及其值打印到列表中。 from bs4 import BeautifulSoup as soup
from urllib.request import urlopen as uReq
import requests
symbol = 'AAPL'
url = "https://www.sec.
我试图用以下代码从EDGAR平台检索公司信息:
library(edgar)
library(tidyverse)
library(kableExtra)
tesla <- getFilingsHTML(
cik.no = 0001318605,
form.type = '10-K',
filing.year = 2017,
quarter = c(1,2,3,4)
)
但是,我得到以下错误:
No filing information found for given CIK(s) and Form Type in the mentioned yea
我目前正在努力从sec.gov下载2016年第一季度的sec.gov文件。因为我只对10-K感兴趣,所以我想以.csv文件的形式下载该文件,并删除无用的行。我试着按表单类型进行过滤,但没有成功。
到目前为止,我的代码如下:
import requests
import os
years = [2016]
quarters = ['QTR1']
base_path = '/Users/xyz/Desktop'
current_dirs = os.listdir(path=base_path)
for yr in years:
if str(yr)