Intro
I also encountered this problem and the solution proposed by @adamo was basically the right solution. However, I had to invest a lot of time in the details, which is why I am now writing a new answer in order to save this time for others.
Case
My case was as follows: There was a table that was filled with data using an app. Now a new entry had to be inserted manually via SQL. After that the sequence was out of sync and no more records could be inserted via the app.
Solution
As mentioned in the answer from @adamo, the sequence must be synchronized manually. For this purpose the name of the sequence is needed. For Postgres, the name of the sequence can be determined with the command PG_GET_SERIAL_SEQUENCE
. Most examples use lower case table names. In my case the tables were created by an ORM middleware (like Hibernate or Entity Framework Core etc.) and their names all started with a capital letter.
In an e-mail from 2004 (link) I got the right hint.
(Let’s assume for all examples, that Foo
is the table’s name and Foo_id
the related column.)
Command to get the sequence name:
SELECT PG_GET_SERIAL_SEQUENCE('"Foo"', 'Foo_id');
So, the table name must be in double quotes, surrounded by single quotes.
1. Validate, that the sequence is out-of-sync
SELECT CURRVAL(PG_GET_SERIAL_SEQUENCE('"Foo"', 'Foo_id')) AS "Current Value", MAX("Foo_id") AS "Max Value" FROM "Foo";
When the Current Value
is less than Max Value
, your sequence is out-of-sync.
2. Correction
SELECT SETVAL((SELECT PG_GET_SERIAL_SEQUENCE('"Foo"', 'Foo_id')), (SELECT (MAX("Foo_id") + 1) FROM "Foo"), FALSE);
в БД вставлены начальные данные
вставлены как? Ну, я и так знаю, что id
вы сами при этом какие-то выбрали и использовали. В частности, использовали 1 вместо механизма IDENTITY
, что особенно важно, объявленного именно как GENERATED BY DEFAULT
.
melkij=> create temp table foo (
id bigint NOT NULL GENERATED BY DEFAULT AS IDENTITY (
INCREMENT 1 START 1 MINVALUE 1 MAXVALUE 9223372036854775807 CACHE 1
) , val int);
CREATE TABLE
melkij=> insert into foo (id, val) values(1,1);
INSERT 0 1
melkij=> insert into foo (val) values(2);
INSERT 0 1
melkij=> table foo;
id | val
----+-----
1 | 1
1 | 2
(2 строки)
Иначе говоря — а кто будет сообщать этому sequence
о том, что какие-то значения вы присвоили самостоятельно? Никто. Вы (вернее ваш фреймворк) попросили BY DEFAULT
, именно это поведение и получили, новое значение последовательности генерируется только если при добавлении строки не было указано явное значение.
Вам нужно изменить значение следующего генерируемого значения:
select max(id)+1 from tsdb."user";
ALTER TABLE tsdb."user" ALTER COLUMN id RESTART WITH /* результат предыдущего запроса */;
Если бы вы попросили GENERATED ALWAYS AS IDENTITY
— то получили бы любезную ошибку при попытке делать странное:
melkij=> create temp table foo (id bigint NOT NULL GENERATED always AS IDENTITY (
INCREMENT 1 START 1 MINVALUE 1 MAXVALUE 9223372036854775807 CACHE 1) , val int);
CREATE TABLE
melkij=> insert into foo (id, val) values(1,1);
ERROR: cannot insert into column "id"
ПОДРОБНОСТИ: Column "id" is an identity column defined as GENERATED ALWAYS.
ПОДСКАЗКА: Use OVERRIDING SYSTEM VALUE to override.
А GENERATED BY DEFAULT
и должен себя ввести так как ведёт.
Добрый день!
Очень странная ошибка вылезает исключительно при первом сохранении
SQLSTATE[23505]: Unique violation: 7 ОШИБКА: повторяющееся значение ключа нарушает ограничение уникальности "category_pkey" DETAIL: Ключ "(id)=(1)" уже существует. The SQL being executed was: INSERT INTO "module_category" ("name", "slug", "sort_order", "status", "created_at", "updated_at", "lft", "rgt", "depth") VALUES ('Пылесосы', 'pylesosy', 1, FALSE, 1531748095, 1531748095, 2, 3, 1) RETURNING "id"
Очень странные дела, он как будто пытается insert категорию, которая находится в _node
Сохранение происходит как написано в мануале:
$parent = Category::findOne($this->parent_id);
// ...
$category->appendTo($parent);
$category->save();
Ошибка возникает именно при самом первом сохранении после миграции.
PS: в миграции идет вставка «root» категории
PSS: https://monosnap.com/file/qHElE2SvMh2GCYsvrPUYNDjrA74U6t
Хочу в таблице создать столбики, но пишет вот это:
psycopg2.errors.UniqueViolation: ОШИБКА: повторяющееся значение ключа нарушает ограничение уникальности «Orders_pkey»
DETAIL: Ключ «(id)=(1)» уже существует.
curr_Devit_pm.execute(
f"""INSERT INTO {table} (id, name, user_name, shop, phone, price, bazar_tovar, oplata, clock, pay) VALUES(%s, %s, %s, %s, %s, %s, %s, %s, %s, %s)""",
(orders_count, Devet_pm[3], Devet_pm[4], Devet_pm[5], Devet_pm[6], Devet_pm[7], Devet_pm[2], Devet_pm[11], a, ass, ))
Postgres handles auto incrementing a little differently than MySQL does. In Postgres, when you create the serial
field, you are also creating a sequence field that is keeping track of the id to use. This sequence field is going to start out with a value of 1.
When you insert a new record into the table, if you don’t specify the id
field, it will use the value of the sequence, and then increment the sequence. However, if you do specify the id
field, then the sequence is not used, and it is not updated, either.
I’m assuming that when you moved over to Postgres, you seeded or imported some existing users, along with their existing ids. When you created these user records with their ids, the sequence was not used, and therefore it was never updated.
So, if, for example, you imported 10 users, you have users with ids 1-10, but your sequence is still at 1. When you attempt to create a new user without specifying the id, it pulls the value from the sequence (1), and you get a unique violation because you already have a user with id 1.
To resolve the issue, you need to set your users_id_seq
sequence value to the MAX(id) of your existing users. You can read this question/answer for more information on resetting the sequence, but you can also try something like (untested):
SELECT setval(pg_get_serial_sequence('users', 'id'), coalesce(max(id)+1, 1), false) FROM users;
FYI, this is not an issue in MySQL because MySQL automatically updates the auto increment sequence to the largest column value when a value is manually inserted into the auto incrementing field.
This question have been asked by several people but my problem seems to be different.
Actually I have to merge same structured tables from different databases in postgresql into a new DB. What I am doing is that I connect to remote db using dblink, reads that table in that db and insert it into the table in the current DB like below
INSERT INTO t_types_of_dementia SELECT * FROM dblink('host=localhost port=5432 dbname=snap-cadence password=xxxxxx', 'SELECT dementia_type, snapid FROM t_types_of_dementia') as x(dementia_type VARCHAR(256),snapid integer);
First time this query runs fine, but when I run it again or try to run it with some other remote database’s table: it gives me this error
ERROR: duplicate key value violates unique constraint
«t_types_of_dementia_pkey»
I want that this new tables gets populated by entries of others tables from other dbs.
Some of the solutions proposed talks about sequence, but i am not using any
The structure of the table in current db is
CREATE TABLE t_types_of_dementia(
dementia_type VARCHAR(256),
snapid integer NOT NULL,
PRIMARY KEY (dementia_type,snapid)
);
P.S. There is a specific reason why both the columns are used as a primary key which may not be relevant in this discussion, because same issue happens in other tables where this is not the case.
This question have been asked by several people but my problem seems to be different.
Actually I have to merge same structured tables from different databases in postgresql into a new DB. What I am doing is that I connect to remote db using dblink, reads that table in that db and insert it into the table in the current DB like below
INSERT INTO t_types_of_dementia SELECT * FROM dblink('host=localhost port=5432 dbname=snap-cadence password=xxxxxx', 'SELECT dementia_type, snapid FROM t_types_of_dementia') as x(dementia_type VARCHAR(256),snapid integer);
First time this query runs fine, but when I run it again or try to run it with some other remote database’s table: it gives me this error
ERROR: duplicate key value violates unique constraint
«t_types_of_dementia_pkey»
I want that this new tables gets populated by entries of others tables from other dbs.
Some of the solutions proposed talks about sequence, but i am not using any
The structure of the table in current db is
CREATE TABLE t_types_of_dementia(
dementia_type VARCHAR(256),
snapid integer NOT NULL,
PRIMARY KEY (dementia_type,snapid)
);
P.S. There is a specific reason why both the columns are used as a primary key which may not be relevant in this discussion, because same issue happens in other tables where this is not the case.
Главная
Я также столкнулся с этой проблемой, и решение, предложенное @adamo, было в основном правильным решением. Однако мне пришлось потратить много времени на детали, поэтому сейчас я пишу новый ответ, чтобы сэкономить это время для других.
Коробка
Мой случай был следующим: была таблица, которая была заполнена данными с помощью приложения. Теперь новую запись нужно было вставить вручную через SQL. После этого последовательность не синхронизировалась, и больше нельзя было вставить записи через приложение.
Решения
Как упоминалось в ответе @adamo, последовательность необходимо синхронизировать вручную. Для этого необходимо название последовательности. Для Postgres имя последовательности можно определить с помощью команды PG_GET_SERIAL_SEQUENCE
. В большинстве примеров используются имена таблиц в нижнем регистре. В моем случае таблицы были созданы промежуточным программным обеспечением ORM (например, Hibernate или Entity Framework Core и т. Д.), И все их имена начинались с заглавной буквы.
В электронном письме от 2004 г. (ссылке) Я получил правильный намек.
(Предположим для всех примеров, что Foo
это имя таблицы и Foo_id
соответствующий столбец.)
Команда для получения названия последовательности:
SELECT PG_GET_SERIAL_SEQUENCE('"Foo"', 'Foo_id');
Итак, имя таблицы должно быть в двойных кавычках, окруженных одинарными кавычками.
1. Убедитесь, что последовательность не синхронизирована.
SELECT CURRVAL(PG_GET_SERIAL_SEQUENCE('"Foo"', 'Foo_id')) AS "Current Value", MAX("Foo_id") AS "Max Value" FROM "Foo";
Когда Current Value
меньше чем Max Value
, ваша последовательность не синхронизирована.
2. Исправление
SELECT SETVAL((SELECT PG_GET_SERIAL_SEQUENCE('"Foo"', 'Foo_id')), (SELECT (MAX("Foo_id") + 1) FROM "Foo"), FALSE);
Wondering how to fix PostgreSQL Error code 23505? We can help you.
One of the most common error codes with the PostgreSQL database is 23505. It can be seen along with the error message “duplicate key violates unique constraint”
Here at Bobcares, we often handle requests from our customers to fix similar PostgreSQL errors as a part of our Server Management Services. Today we will see how our support engineers fix this for our customers.
How PostgreSQL Error code 23505
At times we may get the following message when trying to insert data into a PostgreSQL database:
ERROR: duplicate key violates unique constraint
This happens when the primary key sequence in the table we’re working on becomes out of sync. And this might likely be because of a mass import process.
Here we have to manually reset the primary key index after restoring it from a dump file.
To check whether the values are out of sync, we can run the following commands:
SELECT MAX(the_primary_key) FROM the_table;
SELECT nextval('the_primary_key_sequence');
If the first value is higher than the second value, our sequence is out of sync.
We can back up our PG database and then run the following command:
SELECT setval('the_primary_key_sequence', (SELECT MAX(the_primary_key) FROM the_table)+1);
This will set the sequence to the next available value that’s higher than any existing primary key in the sequence.
To Resolve this error in VMware
When vpxd process crashes randomly after upgrading to vCenter Server 6.5 with the following error:
ODBC error: (23505) - ERROR: duplicate key value violates unique constraint "pk_vpx_guest_disk"; Panic: Unrecoverable database error. Shutting down VC
In the vpxd.log file, we can see entries similar to the one given below:
error vpxd[7F8DD228C700] [Originator@6876 sub=InvtVmDb opID=HB-host-476@72123-38e1cc31] >[VpxdInvtVm::SaveGuestNetworkAndDiskToDb] Failed to insert guest disk info for VM id = 976because of database error: "ODBC error: >(23505) - ERROR: duplicate key value violates unique constraint "pk_vpx_guest_disk";
–> Error while executing the query” is returned when executing SQL statement “INSERT INTO VPX_GUEST_DISK (VM_ID, PATH, CAPACITY, >FREE_SPACE) VALUES (?, ?, ?, ?)”
And in the postgresql.log file, you see entries similar to the one given below:
VCDB vc ERROR: duplicate key value violates unique constraint "pk_vpx_guest_disk" VCDB vc DETAIL: Key (vm_id, path)=(976, /tmp) already exists.
Steps to fix the error are given below:
vCenter Services can be given a service restart. If the starting fails to initialize the service and shows the same crash reason, we can fix this by removing the impacted guest disk entry from vCenter Server Database. This information is safe to remove as it will be re-populated from the host.
For vCenter Server with vPostgres database:
1. First, take a snapshot of the vCenter Server machine before proceeding.
2. Then connect the vCenter Database.
3. And identify the guest disk entry using the following query:
select FROM vc.vpx_guest_disk where vm_id=<vm id> and path='/tmp';For example: select FROM vc.vpx_guest_disk where vm_id='976' and path='/tmp';
4. For deleting the duplicate value we can use the following command:
delete FROM vc.vpx_guest_disk where vm_id=<vm id> and path='/tmp';
For example:
select FROM vc.vpx_guest_disk where vm_id='976' and path='/tmp';
We can get the VM id from the vpxd.log error entry
5. Finally start the Service.
We can delete the snapshot after observing the stability of the vCenter Server.
[Need assistance? We can help you]
Conclusion
In short, we saw how our Support Techs fix PostgreSQL Error code 23505 for our customers.
PREVENT YOUR SERVER FROM CRASHING!
Never again lose customers to poor server speed! Let us help you.
Our server experts will monitor & maintain your server 24/7 so that it remains lightning fast and secure.
GET STARTED
var google_conversion_label = «owonCMyG5nEQ0aD71QM»;
#postgresql #postgresql-9.3
#postgresql #postgresql-9.3
Вопрос:
При выполнении запроса на ОБНОВЛЕНИЕ мы получили следующее сообщение об ошибке:
ERROR: duplicate key value violates unique constraint "tableA_pkey"
DETAIL: Key (id)=(47470) already exists.
Однако наш запрос на ОБНОВЛЕНИЕ не влияет на первичный ключ. Вот упрощенная версия:
UPDATE tableA AS a
SET
items = (
SELECT array_to_string(
array(
SELECT b.value
FROM tableB b
WHERE b.a_id = b.id
GROUP BY b.name
),
','
)
)
WHERE
a.end_at BETWEEN now() AND now() - interval '1 day';
Мы убедились, что последовательность первичных ключей уже синхронизирована:
d tableA_id_seq
Что приводит к:
Column | Type | Value
--------------- --------- --------------------------
sequence_name | name | tableA_id_seq
last_value | bigint | 50364
start_value | bigint | 1
increment_by | bigint | 1
max_value | bigint | 9223372036854775807
min_value | bigint | 1
cache_value | bigint | 1
log_cnt | bigint | 0
is_cycled | boolean | f
is_called | boolean | t
Ищем максимальный индекс таблицы:
select max(id) from tableA;
Мы получили меньшее значение:
max
-------
50363
(1 row)
Есть ли у вас какие-либо идеи о причинах такого поведения? Если мы исключим проблемный идентификатор, это сработает.
Еще один странный момент заключается в том, что замена предыдущего ОБНОВЛЕНИЯ на:
UPDATE tableA AS a
SET
items = (
SELECT array_to_string(
array(
SELECT b.value
FROM tableB b
WHERE b.a_id = b.id
GROUP BY b.name
),
','
)
)
WHERE a.id = 47470;
Это работает хорошо. Мы что-то упускаем?
РЕДАКТИРОВАТЬ: триггеры
У меня нет пользовательских триггеров в этой таблице:
SELECT t.tgname, c.relname
FROM pg_trigger t
JOIN pg_class c ON t.tgrelid = c.oid
WHERE
c.relname = 'tableA'
AND
t.tgisinternal = false
;
Которое не возвращает строки.
Примечание: я использую psql (PostgreSQL) версии 9.3.4.
Комментарии:
1. Есть ли какие-либо триггеры в таблице обновлений?
2. Какова версия вашего сервера Postgres?
3. @pozs: я добавил запрос, который я сделал, чтобы найти триггеры. У меня 16 в этой таблице. Есть ли у вас какие-либо просьбы предоставить более подробную информацию об этом?
4. @JonathanPetitcolas все определяемые пользователем (
WHERE pg_trigger.tgisinternal = FALSE
), которые запускаются до и после обновления, с телами функций триггеров.5. Нет пользовательских триггеров. 🙁
Ответ №1:
Не совсем уверен, в чем причина. Однако удаление двух (не жизненно важных) записей, соответствующих уже существующим идентификаторам (?), решило проблему.
Комментарии:
1. Вероятно, вам следует принять свой собственный ответ, если он сработал для вас.